Sei sulla pagina 1di 532

LDB

Dario Antiseri laureatosi in filosofia nel 1963 all’Università di Perugia, ha proseguito i


suoi studi presso le università di Vienna, Münster e Oxford su temi legati alla logica
matematica e alla filosofia del linguaggio. Divenuto libero docente nel 1968, ha insegnato
in prestigiose università, quali “La Sapienza” di Roma, Siena, Padova, fino a ricoprire
l’incarico di preside della Facoltà di Scienze politiche alla LUISS di Roma tra il 1994 e il
1998. Nel febbraio del 2002 è stato insignito, insieme a Giovanni Reale, di una laurea
honoris causa presso l’Università Statale di Mosca. Tra le sue opere, tradotte in più lingue,
ricordiamo: Ragione filosofica e fede religiosa nell’età post moderna con Gianni Vattimo
(Rubettino, 2008); Come leggere Pascal (Bompiani, 2005); Come leggere Kierkegaard
(Bompiani, 2005); La Vienna di Popper (Rubettino, 2001), Storia della filosofia. Storia
del pensiero occidentale dalle origini a oggi scritta con Giovanni Reale (La Scuola, 1997)
e Teoria unificata del metodo (Utet, 1981 e successive edizioni).
Giovanni Reale (1931) è uno dei massimi studiosi del pensiero antico, autore di
fondamentali contributi sui Presocratici, Socrate, Platone, Aristotele, Seneca, Pirrone,
Plotino, Proclo e Agostino. Ha composto una Storia della filosofia greca e romana (in
dieci volumi, Bompiani 2004) che si è imposta come un punto di riferimento. Per una
nuova interpretazione di Platone (2010) è la sua opera di maggior successo, come
dimostrano lo straordinario numero di edizioni, le traduzioni in varie lingue e i giudizi dati
dagli studiosi a livello internazionale.
STORIA della FILOSOFIA
dalle ORIGINI a OGGI
STORIA DELLA FILOSOFIA
dalle origini a oggi
Vol. 11 Scienza, epistemologia e filosofi americani del XX secolo
© 2008 RCS Libri S.p.A./Bompiani, Milano
© Storia della filosofia greca e romana, 2004
copyright by RCS Libri S.p.A./Bompiani
© Il pensiero occidentale dalle origini ad oggi, 1983
copyright by Editrice La Scuola
© Storia della filosofia, 1997
copyright by Editrice La Scuola
Fonti iconografiche: Archivi Alinari, Firenze
Archivi RCS Libri S.p.A., Milano
Bildarchiv Monheim / Archivi Alinari, Firenze
De Agostini Picture Library / Archivi Alinari, Firenze
De Agostini Picture Library, Scala, Firenze
Effigie Literary Photo Agency, Milano
Foto Scala, Firenze
Photoservice Electa/ Leemage
Photoservice Electa/Akg Images
The Bridgeman Art Library / Archivi Alinari, Firenze
© SIAE (si rinvia a pagina 800)
L’editore si dichiara disponibile con gli aventi diritto delle fotografie per eventuali fonti non individuate.
Cover design: Polystudio
In copertina: Francis Bacon, Autoritratto (particolare). Londra, Marlborough Gallery


Quest’opera è protetta dalla Legge sul diritto d’autore.
È vietata ogni duplicazione, anche parziale, non autorizzata.
Giovanni Reale Dario Antiseri

11
STORIA della FILOSOFIA
dalle ORIGINI a OGGI
SCIENZA, EPISTEM OLOGIA
E FILOSOFI AM ERICANI DEL XX SECOLO
Con la collaborazione di Vincenzo Cicero
Pablo Picasso (1881-1973), Guernica. Madrid, Museo Nacional Centro de Arte Reina Sofia

Pablo Picasso, La guerra, Vallauris, Temple de la Paix


Pablo Picasso, La pace, Vallauris, Temple de la Paix


SOMMARIO

PARTE PRIMA
LE SCIENZE UMANE NEL XX SECOLO

I. Questioni generali
II. La psicologia della forma
III. Il comportamentismo
IV. L’epistemologia genetica di Jean Piaget
V. La teoria linguistica da Saussure a Chomsky
VI. L’antropologia culturale
VII. Karl Mannheim e la sociologia della conoscenza
VIII. La filosofia del diritto: giusnaturalismo, realismo giuridico, Kelsen e il
giuspositivismo
IX. Chaïm Perelman e la nuova retorica
PARTE SECONDA
SIGMUND FREUD E GLI SVILUPPI DEL MOVIMENTO PSICOANALITICO

I. La figura e il pensiero di Freud


II. La ribellione a Freud e la psicoanalisi postfreudiana
PARTE TERZA
LO STRUTTURALISMO

I. Uso scientifico e uso filosofico del termine struttura


II. Claude Lévi-Strauss e lo strutturalismo in antropologia
III. Michel Foucault e lo strutturalismo nella storia
IV. Jacques Lacan e lo strutturalismo in psicoanalisi
V. Perché per lo strutturalismo l’uomo è morto
VI. È irrazionale il razionalismo strutturalistico?
PARTE QUARTA
SVILUPPI DELLA TEORIA ECONOMICA DAL MARGINALISMO AUSTRIACO A JOHN KEYNES

I. La scuola austriaca di economia


II. Il liberalismo di von Hayek
III. La scuola di Friburgo e l’economia sociale di mercato
IV. Il liberalismo personalistico di Wilhelm Röpke
V. Alle radici della tradizione del cattolicesimo liberale
VI. L’interventismo di John Keynes
PARTE QUINTA
LOGICA, FISICA E BIOLOGIA NEL NOVECENTO

I. Gli sviluppi della logica e della matematica


II. Lo sviluppo della fisica
III. La biologia dopo Darwin
PARTE SESTA
LA FILOSOFIA DELLA SCIENZA TRA LE DUE GUERRE: DAL NEOPOSITIVISMO A BACHELARD

I. Lineamenti generali
II. Il neopositivismo viennese
III. Carl Hempel dall’empirismo analitico a un’epistemologia storico-sociologica
IV. L’operazionismo di Percy Bridgman
V. Il razionalismo applicato di Gaston Bachelard
PARTE SETTIMA
KARL POPPER E L’EPISTEMOLOGIA POSTPOPPERIANA

I. Il razionalismo critico di Karl Popper


II. Thomas Kuhn e la struttura delle rivoluzioni scientifiche
III. Imre Lakatos e la metodologia dei programmi di ricerca scientifici
IV. L’epistemologia anarchica di Paul Feyerabend
V. Larry Laudan e la metodologia delle tradizioni di ricerca
VI. La questione del progresso nella scienza
VII. Epistemologia e metafisica
VIII. Epistemologia e marxismo
IX. Epistemologia e storiografia della scienza
PARTE OTTAVA
GRANDI PROTAGONISTI DELLA FILOSOFIA AMERICANA CONTEMPORANEA

I. Il pragmatismo concettuale di Clarence Lewis


II. Willard Quine: olismo metodologico ed epistemologia naturalizzata
III. Morton White e la rivolta contro il formalismo
IV. Nelson Goodman: i paradossi della conferma e il carattere cognitivo dell’arte
V. Charles Morris e i fondamenti della semiotica
VI. Il pragmatismo idealistico di Nicholas Rescher
VII. William Bartley: verso una più ampia teoria della razionalità
VIII. Adolf Grünbaum: dall’analisi della teoria della relatività all’analisi della psicoanalisi
IX. Il neopragmatismo di Richard Rorty
X. Hilary Putnam: dal realismo metafisico al realismo interno
XI. Donald Davidson e la teoria causale dell’azione
XII. John Searle: nessun computer può venir equiparato a una mente umana
PARTE NONA
LA POLITOLOGIA AMERICANA CONTEMPORANEA DA RAWLS AGLI ANARCO-CAPITALISTI

I. Il neocontrattualismo di John Rawls


II. Lo stato minimo di Robert Nozick
III. Michael Novak: per una teologia cattolica del capitalismo democratico
IV. Il pensiero neocon
V. Libertari e anarco-capitalisti
VI. Murray Rothbard: giusnaturalismo e credo libertario
APPARATI
INDICE RAGIONATO DEI CONCETTI
TAVOLE CRONOLOGICHE
INDICE DELLE OPERE
Constantin Brancusi (1876-1957), Blond negress, New York, Museum of Modern Art

Δ Centri culturali e città natali dei personaggi trattati in questo volume



PARTE PRIMA

LE SCIENZE UMANE NEL XX SECOLO

L’epistemologia genetica si occupa della formazione e del significato della conoscenza e dei mezzi
attraverso i quali la mente umana passa da un livello di conoscenza inferiore a uno giudicato superiore.
Jean Piaget
Separando la lingua dalla parola, si separa a un solo tempo ciò che è sociale da ciò che è individuale.
Ferdinand de Saussure
La causa della democrazia risulta disperata se si parte dall’idea che sia possibile la conoscenza della
verità assoluta, la comprensione di valori assoluti.
Hans Kelsen
Nessuno può negare che la capacità di deliberare e argomentare sia un segno distintivo dell’essere
ragionevole.
Chaïm Perelman
QUESTIONI GENERALI

I
Non per desiderio di apparire aggiornati né per desiderio di vana completezza, nel
presente corso di storia della filosofia abbiamo voluto inserire la trattazione dello sviluppo
delle scienze umane in questi ultimi cento anni. La ragione che ci ha spinti a ciò è la
medesima per cui si è soliti inserire in un manuale di filosofia certi sviluppi delle teorie
logiche, delle teorie matematiche, di quelle fisiche o di quelle biologiche: si tratta del fatto
che nello sviluppo della scienza emergono di continuo teorie estremamente influenti, a
volte addirittura devastanti, e comunque strettamente connesse e intrecciate all’avanzare
dei problemi e delle argomentazioni filosofiche. Questioni di metodo, immagini
dell’uomo, teorie dello Stato e della società, congetture sulla storia umana sono problemi
tipici della tradizione della ricerca filosofica. Ebbene, proprio su queste problematiche
esercitano il loro influsso tutta una serie di teorie che si è soliti raggruppare sotto
l’espressione «scienze umane» e che vanno dalla psicoanalisi ad altri indirizzi di indagini
psicologiche, alla linguistica, alla sociologia, alla sociologia della conoscenza,
all’antropologia culturale, alla filosofia del diritto e all’economia.
Di Freud e del movimento psicoanalitico, dato il palese influsso che la psicoanalisi ha
avuto e ha sull’intero spettro del pensiero contemporaneo, ci occuperemo a parte. Le altre
discipline sopra accennate verranno esposte solo per quanto riguarda la loro rilevanza
filosofica, pur non potendosi tuttavia evitare la trattazione degli elementi tecnici
indispensabili alla comprensione dei loro tratti filosofici.
L’empirismo tradizionale ha sostanzialmente e per lo più concepito la mente umana come
passiva, ma noi oggi vediamo che la psicologia della forma, per esempio, mette in
evidenza la spontaneità della mente nel pensiero produttivo. Contrario alla psicoanalisi e
alla psicologia della forma è il comportamentismo, che considera nell’uomo soltanto i
comportamenti osservabili e concepisce la mente come reattiva agli stimoli dell’ambiente.
Ebbene, sono queste concezioni forse prive di interesse per l’immagine dell’uomo?
Né la linguistica da Saussure a Chomsky si è mostrata irrilevante per la filosofia, e non
solo per la filosofia del linguaggio: Saussure è all’origine di quel movimento filosofico
neodeterministico che è lo strutturalismo, e l’innatismo di Chomsky è uno dei punti
cardine della controversia odierna sulla struttura e il funzionamento della mente.
Anche l’epistemologia genetica di Piaget avversa la vecchia idea che la mente sia una
tabula rasa e, contro la posizione di tipo kantiano, sostiene che «spazio», «tempo»,
«causalità» ecc. non sono forme a priori, ma sono costruite in diversi stadi dello sviluppo
della mente del bambino.
Non è inoltre nemmeno il caso di giustificare un ambito di ricerche come quelle della
sociologia della conoscenza che da Marx in poi, attraverso Scheler e Mannheim, sono
state continuamente presenti all’interno della discussione filosofica riguardante i rapporti
tra società e produzioni mentali.
Lo stesso si dica per le indagini di Chaïm Perelman sulla nuova retorica o per quelle di
filosofia del diritto – indagini, queste ultime, che nel secolo scorso hanno conosciuto,
specialmente con Hans Kelsen, un alto livello di rigorizzazione scientifica.
Abbiamo voluto inserire alcune considerazioni sulla antropologia culturale, se non altro
perché ci si renda conto di come si sia venuto via via elaborando il concetto di cultura.
Inoltre, nella parte quarta tratteremo anche di teorie economiche quali il marginalismo
austriaco, l’ordoliberalismo della scuola di Friburgo e l’interventismo di John M. Keynes
– teorie che, a parte la loro influenza pratica sulla vita associata degli uomini, hanno
offerto nuove idee, per esempio, sul «valore economico» criticando uno dei pilastri del
marxismo, cioè la teoria del valore-lavoro.
LA PSICOLOGIA DELLA FORMA

II
Christian von Ehrenfels e la scuola di Graz

La psicologia della forma o Gestaltpsychologie (Gestalt, in tedesco, significa «forma»)


trova i suoi inizi in uno studio di Christian von Ehrenfels (1859-1932) dal titolo Sulle
qualità formali (1890), dove l’autore metteva in evidenza che esistono degli «oggetti
percettivi» (come le forme spaziali, le melodie, le strutture ritmiche) che non si riducono
alla somma di sensazioni puntuali, ma si presentano originariamente come «forme», cioè
come rapporti strutturati, come qualcosa di diverso, appunto, da una somma di «atomi» di
sensazioni. Così, una melodia non è la somma di singole note, infatti è possibile mutare le
singole note e percepire come invariata la forma melodica (è questo il principio della
trasponibilità delle qualità formali).
Dopo Ehrenfels, a Graz si costituì attorno ad Alexius Meinong (1853-1920) una fiorente
scuola che distinse, riguardo alle funzioni percettive e rappresentative, due tipi di oggetti:
1 oggetti elementari, che sarebbero i dati sensoriali (come i colori, i suoni ecc.);
2 oggetti di ordine superiore, fra i quali sono da annoverare le forme o strutture.
Mentre gli oggetti elementari sarebbero l’esito dell’attività degli organi sensoriali
periferici, gli oggetti di ordine superiore, connessi a quelli elementari da un rapporto di
«fondazione», sarebbero il risultato di quella specifica attività del soggetto detta
produzione.
Il lavoro più importante di Meinong è La teoria degli oggetti (1904). I suoi allievi più noti
sono Stephan Witasek e Vittorio Benussi. Benussi, appena dopo la prima guerra mondiale,
passò da Graz a Padova.
Scomparso prematuramente nel 1927, gli succedette Cesare Musatti, il quale più tardi si
trasferì all’università di Milano.
La direzione dell’istituto di psicologia di Padova (successivamente trasformatosi in una
importante facoltà di psicologia) venne allora assunta da un allievo di Musatti, Fabio
Metelli, uno dei rappresentanti italiani della Gestaltpsychologie in senso stretto, autore di
lavori sulla percezione apprezzati a livello internazionale.

La scuola di Würzburg

Una tendenza analoga a quella della scuola di Graz venne sviluppata, nel rifiuto
dell’atomismo e dell’associazionismo psicologico, anche dalla scuola di Würzburg che,
capeggiata da Oswald Külpe (1862-1915), ebbe come centro di interesse la ricerca dei
processi di pensiero ed elaborò la teoria del «pensiero senza immagini». «L’attività –
scrisse Külpe – è il fatto principale; la recettività e il meccanismo delle immagini sono
secondarie.»
Alla scuola di Würzburg fanno capo Karl Marbe, Narziss Ach, Albert Michotte, August
Messer, Agostino Gemelli, Thomas Verner Moore, Johannes Lindworski e Karl Bühler.
Quest’ultimo divenne professore a Vienna, ed esercitò un notevole influsso sulla
psicologia contemporanea sia in Europa sia in America (dove Bühler era successivamente
emigrato).
Karl Popper si laureò nel 1928, proprio con Bühler, con una tesi su La questione
metodologica della psicologia del pensiero. Ed è da Bühler che Popper trasse il suo
antiatomismo, antiassociazionismo e antinduttivismo, cioè alcune delle sue principali
posizioni critiche nei confronti del neopositivismo. Significativo è il fatto che
controrelatore della tesi di laurea di Popper fu proprio il rappresentante più prestigioso del
neopositivismo di allora, Moritz Schlick, il fondatore del Circolo di Vienna.

Max Wertheimer e la scuola di Berlino

Abbiamo sin qui accennato a Ehrenfels, alla scuola di Graz e alla scuola di Würzburg.
Tuttavia, quando si parla di psicologia della forma, generalmente si intende il filone di
ricerche elaborate, a partire dal 1911, dalla scuola di Berlino, costituita da tre studiosi
originalissimi: Max Wertheimer (1880-1943), Wolfgang Köhler (1887-1967) e Kurt
Koffka (1886-1941). Contro la scuola di Graz (e Benussi, in particolare), che manteneva
ferma la distinzione tra sensazioni e produzioni di forme, la scuola di Berlino sostenne che
è impossibile conservare il vecchio concetto di «atomi sensoriali». E fu proprio la
psicologia della percezione a costituire la problematica iniziale della scuola di Berlino,
mentre successivamente l’orizzonte delle prospettive venne ampliato con l’applicazione ad
altri ambiti dei principi che avevano dimostrato la loro fecondità nel campo dei fenomeni
percettivi: Wertheimer e poi Dunker studieranno il pensiero produttivo; Köhler indagherà
sul problema dell’intelligenza animale; Gelb, Fuchs e Goldstein si dedicheranno allo
studio dei problemi psicologici connessi alla patologia cerebrale; Koffka allo studio della
memoria; Asch alla psicologia sociale; Arnheim alla psicologia dell’arte.
Ma addentriamoci nella teoria. Tutti conosciamo il fenomeno del movimento apparente o
fenomeno stroboscopico. Quando un oggetto visivo, per esempio una linea, viene mostrato
brevemente in un luogo e subito dopo un secondo oggetto appare in un secondo luogo,
non troppo distante dal primo, l’osservatore non vede due oggetti che appaiono in rapida
successione nei loro rispettivi luoghi, ma vede un solo oggetto che si muove rapidamente
dal primo al secondo luogo. Fisicamente, non ha luogo nessuno spostamento della linea da
un posto all’altro, ma ciò che si percepisce è proprio questo movimento (pensiamo ai
fotogrammi immobili che, proiettati sullo schermo rapidamente uno dopo l’altro, generano
esattamente movimenti stroboscopici che costituiscono la percezione cinematografica).
Bene, la vecchia psicologia associazionistica, che pensava che le percezioni consistessero
di sensazioni locali indipendenti, riteneva tali percezioni delle «illusioni», come se fossero
il prodotto di un errore del pensiero dell’osservatore. Wertheimer non procedette però in
questo modo, non negò i fatti scomodi e sconcertanti. Esaminò piuttosto il moto apparente
in numerosi esperimenti e si rese conto che il movimento apparente è un fatto percettivo
reale e che l’ipotesi del giudizio erroneo non è comprovata dai fatti: il campo non appare
come un mosaico di tanti pezzettini, né il movimento stroboscopico viene percepito come
un ammasso di sensazioni.
Da questa ricerca ha avuto origine il principio fondamentale della Gestaltpsychologie: noi
percepiamo totalità strutturate, e non ammassi di sensazioni puntuali. E questo non vale
solo per il campo visivo, ma anche le melodie, per esempio, sono qualità globali. Quelle
che i musicisti chiamano tonalità «maggiore» o «minore» sono caratteristiche delle frasi e
non dei singoli toni. O ancora: quando le note do e sol vengono suonate insieme,
producono quella qualità che in musica si chiama la quinta e che non sta né nel do né nel
sol, ma dipende da queste note particolari, giacché qualsiasi associazione di due note nella
proporzione di 2/3 sarà subito riconosciuta come una quinta.
In sostanza, la psicologia tradizionale associazionistica (o sommativo-aggregativa,
positivistica, meccanica) stabilisce la seguente equazione: gelato di vaniglia = freddo +
dolce + odore di vaniglia + molle + giallo. Ma la psicologia della forma rifiuta questo
modo di pensare «psico-chimico». Scrive David Katz:
Per la psicologia della forma, il tutto è più della somma delle sue singole parti, e non
(come per il positivismo) nient’altro che la somma di queste parti.
A proposito di questo principio («il tutto è più della somma delle sue parti») Köhler
preferiva la formula:
Il tutto è diverso dalla somma delle sue parti.
Le nostre percezioni dei fenomeni, dunque, sono percezioni di forme o qualità che non si
riducono alla somma delle parti. Ecco alcune delle leggi che guidano la genesi delle forme
ottiche.
1 Legge della vicinanza:
Le parti di un insieme percettivo vengono raccolte in unità conforme alla minima
distanza, ceteris paribus.
2 Legge dell’uguaglianza:
Se lo stimolo è costituito da una moltitudine di elementi diversi, si manifesta – ceteris
paribus – una tendenza a raccogliere in gruppi gli elementi fra loro simili.
3 Legge della forma chiusa:
Le linee delimitanti una superficie si percepiscono – ceteris paribus – come unità più
facilmente di quelle che non si chiudono.
4 Legge della curva buona o del destino comune:
Quelle parti d’una figura che formano una «curva buona» o hanno un «destino
comune» si costituiscono in «unità» con facilità maggiore che le altre. Questa legge
impedisce frequentemente che parti appartenenti a oggetti diversi si fondino in
«unità» o, in altre parole, ci aiuta a vedere separatamente oggetti che si trovano in
contatto ottico tra loro.
Si può esemplificare questa legge con l’osservazione delle figure 1 e 2:
fig. 1

fig. 2

Nella figura 2, per esempio, noi non vediamo la linea da 1 a A a 2; né vediamo 3 A 4, o 2


A 4 o 1 A 3; vediamo, piuttosto, 3 A 2 e 1 A 4.
5 Legge del moto comune:
Si costituiscono in unità quegli elementi che si muovono insieme e in modo simile, o,
generalmente, che si muovono a differenza di altri fermi.
6 Legge dell’esperienza:
La psicologia della forma, pur non attribuendo all’esperienza la stessa importanza
per l’organizzazione (percettiva) delle cose che le dà la psicologia associazionistica,
non esita a riconoscerle un’azione concomitante accanto ai fattori summenzionati.

fig. 3

fig. 4

Non è un caso che tutti coloro che conoscono l’alfabeto latino non tarderanno a
riconoscere nella figura 3 una «E» maiuscola, anche se rovesciando di 90 gradi la figura
non vedremo più una «E», ma tre linee separate. Le illusioni ottiche, inoltre, hanno sempre
costituito un rompicapo per la psicologia associazionistica. In che modo questa, che
considera le percezioni degli oggetti come somma di singoli pezzi percettivi, può spiegare
che i due segmenti della figura 4, geometricamente uguali, appaiono uno più lungo e uno
più corto? Eppure, la psicologia della forma, prendendo come punto di partenza la totalità
della figura, e non i suoi singoli elementi, spiega questa «illusione» ottica. Come spiega
pure una quantità enorme di fenomeni sonori, o anche i modi in cui si organizzano le
nostre percezioni dei colori.
Non è qui possibile soffermarsi sui geniali lavori di psicologia animale effettuati da
Köhler (con scimmie che risolvono il problema di prendere una banana, afferrando un
bastone e utilizzandolo come uno strumento; scimmie che, per prendere una banana
altrimenti irraggiungibile, infilano una canna in un’altra e poi usano questo strumento per i
loro intenti; ovvero ancora con scimmie che, per risolvere lo stesso problema, usano una
cassa come sgabello, e così via), sulle ricerche di Wertheimer riguardanti il pensiero
produttivo, o anche sulle indagini di Kurt Lewin sull’azione dell’affettività nel dirigere il
comportamento e nel determinare le caratteristiche psicologiche dell’ambiente. Per il
momento siano sufficienti le seguenti considerazioni:
1 la psicologia della forma è, in psicologia, l’analogo della teoria di campo in fisica;
2 essa rappresenta la reazione più decisa a quella psicologia atomistica e associazionistica
della percezione, che aveva dietro di sé secoli di storia;
3 per più d’un aspetto, la psicologia della forma rappresenta «una riformulazione critica
dell’innatismo» (Carroll C. Pratt);
4 ha avuto il merito di sottolineare le capacità innovative e creative del soggetto umano;
5 «Nella psicologia animale ha introdotto un modo di sperimentazione ed una concezione
che le permettono di esser veramente una psicologia» (Giorgio Zunini);
6 con la psicologia della forma tutta la problematica dell’apprendimento ha avuto un
impulso molto forte.
IL COMPORTAMENTISMO

III
John Watson e lo schema stimolo-risposta

Fondatore del comportamentismo è l’americano John Broadus Watson (1878-1958), i cui


più importanti lavori (Il comportamento. Introduzione alla psicologia comparata, 1914;
La psicologia dal punto di vista comportamentistico, 1919; Comportamentismo, 1925;
19302) sono ormai noti a un pubblico molto vasto. Watson iniziò le sue ricerche studiando
il comportamento dei topi nel labirinto. Solo successivamente si dedicò all’indagine sui
comportamenti umani.
L’intento fondamentale di Watson è di rendere la psicologia una scienza così come lo sono
le scienze naturali. Ma a tal fine occorre prendere subito la decisione di eliminare dal
discorso psicologico i dati dell’introspezione. I dati forniti dall’introspezione sono dati
intimistici non sottoponibili al pubblico controllo della sperimentazione, e quindi non
possono essere assunti a base di una psicologia come scienza. La coscienza non può stare
a fondamento della scienza psicologica.
Per contro, ciò che lo psicologo, proprio in quanto psicologo, può scientificamente
studiare sono i comportamenti (in inglese: behaviors) umani. Come un chimico studia il
comportamento (o modo di reagire) di una sostanza posta in determinate condizioni, così
lo psicologo studia il comportamento di un individuo posto in determinate condizioni. E
come il chimico muta le condizioni per vedere come diversamente reagisca la sostanza,
così lo psicologo muta anch’egli le condizioni per vedere come cambia il comportamento
dell’individuo.
Il comportamento, pubblico e osservabile, è l’unico oggetto della psicologia. L’uomo si
riduce ai suoi comportamenti: la scienza psicologica è dunque comportamentismo. Lo
psicologo può così lavorare come lo scienziato della natura:
Data […] una situazione, lo psicologo deve stabilire quello che l’individuo farà di
fronte a essa. E viceversa: vedendo che un individuo fa una cosa, occorre essere
capaci di indicare quale situazione o quale oggetto abbiano prodotto quest’atto.
Watson fissava tali principi nel 1913 in un opuscolo programmatico dal titolo La
psicologia vista da un behaviorista. In Comportamentismo, del 1925, Watson conduce a
fondo l’attacco contro la psicologia tradizionale con i suoi dati introspettivi; alle vecchie
sensazioni vengono sostituite le risposte del comportamento:
Il pensiero è una forma di comportamento, è una organizzazione motoria,
esattamente come il giocare a tennis o a golf.
Convinto di aver eliminato dal castello «uomo» tutti gli spettri in esso introdotti dalla
vecchia psicologia e dalla filosofia tradizionale, a Watson non restano da studiare che i
comportamenti e le leggi che, date determinate condizioni, ci permettono di spiegarli e di
prevederli. I comportamenti sono gli unici oggetti della psicologia, e questa deve trovare
le leggi che li spiegano. Ma trovare le leggi che spiegano i comportamenti vuol dire
individuarne le cause.
Ora, Watson trova queste cause negli «stimoli» che l’individuo riceve incessantemente
dall’ambiente: i comportamenti sono risposte a stimoli ambientali e la psicologia
scientifica è la scienza della coppia stimolo-risposta. La differenza tra l’animale e l’uomo
starebbe, per Watson, nella maggiore complessità dei comportamenti umani. In ogni caso,
per il comportamentista: omnis actio est reactio.

Ivan Pavlov e i riflessi condizionati

A questo punto è agevole istituire un raffronto tra la psicologia di Watson e la fisiologia


psicologica del russo Ivan Petrovicˇ Pavlov (1849-1936), il quale mostrò quale importanza
abbiano per la psicologia processi fisiologici in cui l’organismo dà risposte a stimoli
ricevuti.
È rimasto famoso il suo esperimento con i cani. È risaputo che la vista del cibo provoca
nei cani la salivazione (e questo è un riflesso incondizionato), e che se, al posto di
presentare il cibo si suona una campanella, il cane non ha nessuna secrezione gastrica. Se,
però, per un certo periodo si suona una campanella mentre si presenta il cibo, allora
accade che, anche al semplice suono della campanella, il cane comincia a salivare. E
questo è un riflesso condizionato. In tal caso, dice Pavlov, abbiamo «una secrezione
psichica». Uno stimolo indifferente (come il suono di una campanella) diventa efficace «a
condizione» di venir collegato con uno stimolo normale.
Proseguendo le sue ricerche e generalizzandole, Pavlov credette di poter spiegare,
attraverso la teoria del riflesso condizionato, molti comportamenti umani.
L’opera di Pavlov I riflessi condizionati è del 1923. Ma intanto sin dal 1917, ricorda
Skinner, i russi avevano avuto bisogno del principio del riflesso condizionato e fecero di
Pavlov un eroe. Difatti, se gli uomini non erano né produttivi né felici, la colpa era
dell’ambiente, e con l’aiuto dei principi di Pavlov il governo avrebbe cambiato il mondo e
con esso gli uomini. Senonché, sebbene il governo avesse avuto la sua buona occasione, i
russi ancora verso gli anni Trenta non erano molto felici e produttivi. «Pavlov cadde in
disgrazia, e per venti anni la ricerca russa fu confinata ai processi fisiologici non
direttamente correlati al comportamento. Quando la seconda guerra mondiale ridiede
fiducia alla Russia, Pavlov ridivenne un eroe nazionale, e si diede un’altra occasione ai
riflessi condizionati di costruire la vita ideale.»

Gli sviluppi del comportamentismo e Skinner

Gli sviluppi del behaviorismo, dopo Watson, hanno preso direzioni disparate e, prima di
passarle brevemente in rassegna, è utile ricordare che se l’epistemologia che sta dietro alle
idee di Watson è, sostanzialmente, quella del pragmatismo, l’epistemologia dei
comportamentisti più vicini ai nostri giorni è quella dell’operazionismo di Bridgman.
Ivan Petrovič Pavlov (a destra) e Harvey Cushing, 1929

Watson, per esempio, aveva aspramente criticato la psicoanalisi, ma Edwin Bissell Holt
(1873-1946), nel suo scritto Il desiderio freudiano e il suo posto nell’etica (1915), cercò di
riabbinare coscienza e comportamento: egli identificò quella «risposta specifica», che è il
comportamento, con la «pulsione freudiana» e vi incluse cose come l’impulso, la
motivazione eccetera.
La psicologia della forma era stata fortemente critica nei confronti del behaviorismo (che
nega la validità dell’esperienza diretta), ma Edward Chance Tolman (1886-1961), il quale
era stato in contatto con Bühler, introduce nel comportamentismo il principio della
psicologia della forma, sostenendo che il comportamento è una Gestalt, cioè una
organizzazione totale.
E ne Il comportamento intenzionale negli animali e nell’uomo (1932), Tolman parla di
«comportamento intenzionale» (purposive behavior), nel senso che le azioni umane (e
anche animali) non funzionano attraverso il semplice schema meccanico di stimolo-e-
risposta; i comportamenti, piuttosto, sono meglio spiegabili se si considerano come catene
di azioni dirette verso scopi precisi.
Con Clark Leonard Hull (1884-1952) il comportamentismo, oltre ad arricchirsi di concetti
come quello di «spinta motivazionale» (drive), ha assunto anche una configurazione
assiomatica, in quanto Hull lo ha voluto presentare come un sistema teorico
ipoteticodeduttivo. Hull ha creato, insieme a un gruppo di collaboratori (Orval Hobart
Mowrer, Ernest R. Hilgard, John Wesley Mayhew Whiting e altri), la scuola antropologica
di Yale.
Il rappresentante più noto, più discusso ma anche più battagliero del comportamentismo è
Burrhus Frederic Skinner (1904-1990). Criticato per le sue provocazioni antiteoriche (il
comportamentismo consisterebbe in descrizioni di fatti piuttosto che in interpretazioni e
spiegazioni di fatti: ma è possibile descrivere senza interpretare? Descrivere non è già
interpretare alla luce di una teoria?), Skinner è stato duramente attaccato per le sue
applicazioni dei principi comportamentistici ai progetti di riforma sociale (Walden Two,
1948, una specie di utopia di una società basata sui principi behavioristici; Oltre la libertà
e la dignità, 1971): è stato fatto notare che la manipolazione del comportamento, così
come la concepisce Skinner, porterebbe a una oppressione totale esercitata su formiche
affaccendate le quali sono state condizionate anche nella loro credenza di essere felici di
condurre una vita siffatta.
Glenn Robert Negley e John Max Patrick hanno scritto che «di tutte le dittature, questa [di
Skinner] è la più profonda, e potenziali dittatori potrebbero ben trovare in questa utopia un
manuale per la pratica politica». Skinner, da parte sua, sostiene invece che
Walden Two descrive una comunità immaginaria di circa un migliaio di persone che
vivono una Vita Ideale […]. La vita in Walden Two non è soltanto buona, ma sembra
anche realizzabile. […] Le utopie sono fantascienza, e abbiamo imparato che la
fantascienza ha modo di divenire realtà.
(Si tenga presente che ci sono state e ci sono negli Stati Uniti tentativi di realizzare
Walden Two da parte di gruppi di giovani.)
Contro Tolman, Skinner rifiuta l’idea che un organismo apprende a comportarsi in un
certo modo perché ci sarebbe da parte sua l’aspettativa del verificarsi di un dato fatto.
Appellarsi a «eventi mentali» non porta, secondo Skinner, molto lontano nella scienza. La
psicologia è scienza del comportamento. Tuttavia, scrive Skinner ne Il comportamento
degli organismi (1939), non tutte le attività dell’organismo sono comportamento, bensì
unicamente quelle che «esercitano una azione o stabiliscono un commercio con il mondo
circostante».
Il comportamento è un’azione che produce un effetto. Tale definizione è, per Skinner, più
adeguata di quella di Pavlov, per il quale il comportamento, più che essere un’azione
sull’ambiente, è un evento interno all’organismo. Per questo Skinner parla di
comportamentooperante; egli vuole così sottolineare il fatto, leggiamo in Scienza e
comportamento umano (1957), che
il comportamento opera sull’ambiente producendo delle conseguenze.
Il comportamento pavloviano egli lo chiama comportamento rispondente; è questo un
comportamento passivo di fronte agli stimoli dell’ambiente.
Altro punto da considerare sono le riflessioni di Skinner sul rinforzo. Egli ideò la ormai
celebre gabbia di Skinner (Skinner-Box). Si tratta di una gabbia oscurata e acusticamente
isolata, dove viene posto un ratto. Nella gabbia c’è una levetta che, se premuta dal ratto,
gli procura del cibo. La differenza tra questo tipo di condizionamento e quello classico
(quello di Pavlov, per intenderci) è che, nel caso del nostro ratto, il rinforzo, vale a dire
l’evento che concorre all’apprendimento e lo rende resistente alla tendenza a estinguersi,
non è correlato allo stimolo incondizionato che, nel condizionamento classico, viene
presentato dallo sperimentatore, bensì dipende dalla risposta operante del soggetto. Il topo
ha cibo solo se preme la levetta; il rinforzo, pertanto, è condizionato alla risposta.
Avversario irriducibile dell’innatismo, Skinner è stato ben ripagato dai sostenitori
dell’innatismo quali il linguista Noam Chomsky e il neurofisiologo John Carew Eccles.
Ha scritto Chomsky: «L’approccio di Skinner al comportamento verbale non è più
scientifico degli approcci tradizionali, e di rado ugualmente chiaro». Ed Eccles ha detto
che l’uomo non può essere un buon materiale per Skinner e per il suo Oltre la libertà e la
dignità: «Io credo che in quanto esseri umani noi abbiamo libertà e dignità. La teoria di
Skinner e la tecnica del condizionamento operante sono derivate dai suoi esperimenti su
piccioni e ratti. Lasciamo che ne beneficino questi ultimi!».
Popper, da parte sua, afferma – da antinduttivista – che il riflesso condizionato
semplicemente non esiste.
L’EPISTEMOLOGIA GENETICA DI JEAN PIAGET

IV
Cos’è l’epistemologia genetica

L’epistemologia genetica si occupa della formazione e del significato della


conoscenza e dei mezzi attraverso i quali la mente umana passa da un livello di
conoscenza inferiore a uno giudicato superiore […]. La natura di questi passaggi,
che sono storici, psicologici e talvolta anche biologici, è un problema reale.
Dopo questa definizione, Jean Piaget (1896-1980) aggiunge:
L’ipotesi fondamentale dell’epistemologia genetica è che ci sia un parallelismo tra il
progresso compiuto e l’organizzazione razionale e logica della conoscenza e i
corrispettivi processi psicologici formativi.
Piaget mette alla prova questa ipotesi ne Lo sviluppo mentale del bambino, in cui afferma:
Crediamo che ogni ricerca in psicologia scientifica debba partire dallo sviluppo, e
che la formazione dei meccanismi mentali nel bambino possa meglio spiegare la loro
natura e il loro funzionamento anche nell’adulto.
Lo scopo essenziale della psicologia infantile si configura pertanto come quello «di
costituire un metodo esplicativo per la psicologia scientifica in generale, o, in altre parole,
di dare la dimensione genetica indispensabile alla soluzione di tutti i problemi mentali».
Tale dimensione genetica è indispensabile perché
La dimensione nella sfera dell’intelligenza è impossibile fornire
genetica è una esatta interpretazione psicologica delle
indispensabile alla operazioni logiche, dei concetti di numero, di
comprensione dei spazio, di tempo ecc. senza studiare
fenomeni mentali preliminarmente lo sviluppo di tali operazioni e
concetti: sviluppo sociale, naturalmente, nella
storia delle società e delle diverse forme
collettive di pensiero (storia del pensiero
scientifico in particolare), ma anche sviluppo individuale (il che non è in
contraddizione dato che lo sviluppo nel bambino costituisce tra l’altro una
progressiva socializzazione dell’individuo). [D’altro canto,] nella sfera delle
percezioni […] non si potrebbe costruire una esatta teoria delle «costanze»
percettive, delle illusioni geometriche, delle strutturazioni dello spazio percettivo
secondo le coordinate orizzontali e verticali ecc., senza studiare prima lo sviluppo di
questi fenomeni, se non altro per mettersi in guardia contro le troppo facili ipotesi sui
fenomeni innati.
In realtà, Piaget, avversario dell’idea centrale del behaviorismo (secondo cui l’individuo
sarebbe, dal più al meno, una costruzione elaborata da un ambiente), contesta anche un
innatismo, per esempio, di tipo kantiano, ma ammette uno sviluppo fisso e definito di
strutture definite e universali. E lo sviluppo di queste strutture trova una profonda analogia
nello sviluppo storico del pensiero umano. Leggiamo ne La causalità fisica nel bambino
(1927):
Sviluppo della Può accadere che le leggi psicologiche stabilite
mente e sviluppo in base ai nostri metodi circoscritti possano
del pensiero tramutarsi in leggi epistemologiche stabilite in
scientifico base all’analisi della storia della scienza:
l’eliminazione del realismo, del sostanzialismo,
del dinamismo, lo sviluppo del relativismo ecc.,
sono tutte leggi evolutive che sembrano proprie dello sviluppo sia del bambino sia
del pensiero scientifico.

Jean Piaget

Piaget ha realizzato il suo programma (dove si intersecano argomenti affascinanti quali: lo


sviluppo dell’intelligenza e del linguaggio; lo sviluppo del giudizio morale; lo sviluppo
del concetto di numero, di causalità ecc.) in tutta una serie di importanti opere:
1924 Il giudizio e il ragionamento nel bambino;
1924 Il linguaggio e il pensiero nel bambino;
1926 La rappresentazione del mondo nel bambino;
1927 La causalità fisica nel bambino;
1932 Il giudizio morale nel bambino;
1941 La genesi del numero nel bambino (in coll. con Alina Szeminska);
1941 Lo sviluppo delle quantità nel bambino (con Bärbel Inhelder);
1946 Lo sviluppo della nozione di tempo nel bambino;
1948 La rappresentazione dello spazio nel bambino (con Inhelder);
1948 La geometria spontanea nel bambino;
1953 La genesi dell’idea di fortuito;
1955 Dalla logica del bambino alla logica dell’adolescente;
1959 La genesi delle strutture logiche elementari (con Inhelder);
1967 Biologia e conoscenza;
1968 Lo strutturalismo;
1974 Riuscire e capire.

Le fasi dello sviluppo mentale del bambino

Veniamo ora allo sviluppo mentale del bambino.


1 Il periodo che va dalla nascita all’acquisizione del linguaggio è contraddistinto – dice
Piaget – da uno sviluppo mentale straordinario. Si tratta di un periodo decisivo per tutta la
successiva evoluzione psichica: «consiste infatti nientedimeno che nella conquista di tutto
l’universo pratico che circonda il bambino, per mezzo della percezione e del movimento».
Questa «assimilazione sensomotoria» del mondo esterno immediato realizza nello spazio
di diciotto mesi o due anni una rivoluzione copernicana in miniatura: «mentre al punto di
partenza di questo sviluppo il neonato riferisce ogni cosa a sé, o meglio al proprio corpo,
al punto di arrivo, cioè quando hanno inizio il pensiero e il linguaggio, si colloca
praticamente come elemento o corpo, fra gli altri, in un universo che ha costruito a poco a
poco, e che sente ormai come esterno a sé».
Una cosa è qui da notare: in questo periodo «l’intelligenza compare […] molto prima del
linguaggio, cioè molto prima del pensiero interiore, che suppone l’uso dei segni verbali
(linguaggio interiorizzato)». Si tratta di una intelligenza del tutto pratica, «basata sulla
manipolazione degli oggetti, e che, invece delle parole e dei concetti, utilizza solo
percezioni e movimenti organizzati in “schemi d’azione”». Così, per esempio, afferrare un
bastoncino per prendere un oggetto è un atto di intelligenza e piuttosto tardivo, che accade
verso i diciotto mesi.
2 Nel periodo che va dai due ai sette anni (periodo del pensiero preoperatorio) il bambino,
a opera del linguaggio, diventa capace di ricostruire le azioni passate sotto forma di
racconto, e di anticipare quelle future con la rappresentazione verbale.
Da ciò conseguono tre fatti di grande rilievo per lo sviluppo mentale: «possibile scambio
tra individui, cioè inizio della socializzazione nell’azione; interiorizzazione della parola,
cioè apparizione del pensiero propriamente detto, che ha come base il linguaggio interiore
e il sistema dei segni; infine, e soprattutto, interiorizzazione dell’azione come tale, che da
puramente percettiva e motoria qual era sino ad allora, può ormai ricostituirsi sul piano
intuitivo delle immagini e delle “esperienze psichiche”».
Dal punto di vista affettivo, inoltre, risultano tutta una serie di trasformazioni parallele:
«sviluppo dei sentimenti interindividuali (simpatie e antipatie, rispetto ecc.) e di
un’affettività interiore che si organizza in modo più stabile che non nei primi stadi».
In questo periodo, specie nella prima fase, prevale il pensiero egocentrico, accompagnato
da animismo e artificialismo («la luna si muove per accompagnarci»; «il sole è nato
perché siamo nati noi» ecc.); il soggetto «afferma sempre e non dimostra mai»; i bambini
di quest’età parlano ma non si sa se si ascoltano, si mettono in molti a fare lo stesso
lavoro, ma non si sa se si aiutano davvero. Il bambino è «egocentrico», manca della
capacità di differenziare il proprio punto di vista da quello degli altri.
3 Il periodo che va dai sette ai dodici anni è quello che Piaget chiama la fase del pensiero
operatorio-concreto. Quando si osservano i bambini di questa età si è colpiti da un duplice
progresso: «concentrazione individuale quando il soggetto lavora da solo, ed effettiva
collaborazione quando si svolge un’attività comune».
Questi due aspetti, che compaiono verso i sette anni, sono complementari e solidali. A
quest’età diventano possibili le discussioni, «con tutto ciò che comportano di
comprensione nei confronti dei punti di vista dell’avversario, e di ricerca di prove e
giustificazioni nei confronti delle proprie affermazioni». Scompare il «linguaggio
egocentrico» e nella struttura grammaticale che il bambino adopera si manifesta «il
bisogno di coerenza e di giustificazione logica».
I bambini prima dei sette anni giocano ma «senza regole» e vincono tutti. Dopo i sette
anni i giochi sono regolati. I fatti esigono spiegazioni razionali e l’intelligenza appare
come intelligenza operativa. Si tratta di operazioni logiche (con classi e relazioni);
operazioni aritmetiche (addizione, moltiplicazione ecc.); operazioni geometriche (sezioni,
spostamenti ecc.); operazioni temporali (seriazione degli avvenimenti ecc.); operazioni
meccaniche, fisiche eccetera. Il bambino, in questi anni, «pensa concretamente, problema
per problema, man mano che la realtà gliene propone, e non collega mai le proprie
soluzioni a teorie generali che ne manifesterebbero i principi». L’affettività, tra i sette e i
dodici anni, è caratterizzata dall’apparizione di nuovi sentimenti morali come il rispetto
reciproco.
4 Il periodo che va dagli undici-dodici anni ai quattordici è il periodo dell’adolescenza.
Paragonato a un bambino, «l’adolescente è un individuo che costruisce sistemi e teorie».
Quel che colpisce nell’adolescente «è il suo interesse per problemi inattuali, senza
rapporto con le realtà vissute giorno dopo giorno, o che anticipano, con un’ingenuità
disarmante, situazioni future, spesso chimeriche». Stupisce nell’adolescente la facilità di
elaborare teorie astratte: «alcuni di loro scrivono, creano una filosofia, una politica,
un’estetica […]. Altri non scrivono, ma parlano. La maggior parte addirittura parla
pochissimo delle proprie soluzioni personali e si limita a ruminarle in modo segreto e
intimo. Tutti hanno però sistemi e teorie che trasformano il mondo in un modo o
nell’altro». È questo il passaggio dal pensiero concreto al pensiero «formale» o «ipotetico-
deduttivo». Prima degli undici anni, le operazioni dell’intelligenza infantile sono soltanto
«concrete», si basano sulle realtà, sugli oggetti tangibili che possono essere manipolati e
sottoposti a esperienze concrete. Ma «dopo gli undici e dodici anni, il pensiero formale
diviene appunto possibile, e le operazioni logiche cominciano a venir trasposte dal piano
della manipolazione concreta al piano delle idee pure espresse in un linguaggio (il
linguaggio delle parole o quello dei simboli matematici ecc.), ma senza l’appoggio della
percezione, dell’esperienza, o perfino della convinzione».
Il pensiero formale è quindi «ipotetico-deduttivo», è il pensiero capace di trarre
conclusioni da pure ipotesi e non soltanto da una osservazione concreta. In una intervista,
rilasciata nel 1973, Piaget dirà che
il contenuto di ogni ipotesi è già una forma di operazione concreta; il porre in
relazione ipotesi e conclusioni è un’operazione nuova. Le operazioni sulle operazioni
aprono ora un campo assai più vasto di possibilità.
Queste teorie sullo sviluppo mentale del bambino sono state provate da Piaget con
esperimenti semplici, geniali e persuasivi. Sono state sottoposte a esperimenti attraverso
svariate tecniche di prova. È facile immaginare quale sia stato e quale sia tuttora l’influsso
esercitato da Piaget sul rinnovamento della pedagogia. Da un punto di vista filosofico, le
ricerche di Piaget mostrano, per esempio, che «alcune strutture logico-matematiche non
sono in funzione a ogni età, e non sono quindi innate».
Tuttavia, possiamo ripetere che per Piaget è innato o preformato uno sviluppo di strutture
definite. Per lui – così leggiamo alla fine di Biologia e conoscenza – «le funzioni cognitive
prolungano le regolazioni organiche». Il pensiero si sviluppa in un processo di
adattamento che assimila dati a schemi esistenti, o trasforma e ristruttura questi schemi in
base a nuovi dati. Influenzato anche dalla psicologia della forma, Piaget riconosce che la
psicoanalisi ha completamente rinnovato la psicologia, ma aggiunge anche che
il futuro della psicoanalisi inizierà il giorno in cui essa diverrà sperimentale.
Per di più, secondo Piaget, il concetto di «inconscio» dev’essere esteso:
[L’inconscio] non deve essere limitato alla vita emotiva. Noi siamo consci del
risultato, non del meccanismo. […] In ogni area del funzionamento cognitivo, tutti i
processi sono inconsci […]. L’Inconscio è tutto ciò che non è concettualizzato.
LA TEORIA LINGUISTICA DA SAUSSURE A CHOMSKY

V
Ferdinand de Saussure: cos’è la semiologia e cos’è il segno

«È noto quanto la linguistica, la semiologia, l’antropologia dei nostri giorni debbano a


Saussure. Concetti e temi raccolti nel Cours de linguistique générale sono stati utilizzati
come essenziali in disparati indirizzi di ricerca. Al Cours si richiamano la sociolinguistica
con Meillet e Sommerfelt, la stilistica ginevrina con Bally, la linguistica psicologica con
Sechehaye, i funzionalisti con Frei e Martinet, gli istituzionalisti italiani come Devoto e
Nencioni, i fonologisti e strutturalisti praghesi con Karcevskij, Trubeckoj e Jakobson, la
linguistica matematica con Mandelbrot e Herdan, la semantica con Ullmann, Prieto, Trier,
Lyons, la psicolinguistica con Bresson e Osgood, storicisti come Pagliaro e Coseriu; e
ancora Bloomfield (non i suoi adepti), Hjelmslev e la scuola glossematica, Chomsky (non
altrettanto i suoi seguaci)» (Tullio De Mauro).
E le cose non si fermano qui, giacché le idee del ginevrino Ferdinand de Saussure (1857-
1913) hanno influenzato il pensiero di studiosi quali Merleau-Ponty, Lévi-Strauss, Roland
Barthes, Jacques Lacan, Michel Foucault e, attraverso questi, le «scienze umane» e la
filosofia. La filosofia, poiché la storia delle diverse lingue è, in trasparenza, la storia delle
diverse comunità umane: è nella lingua che l’uomo deposita i prodotti della sua
evoluzione spirituale; e la comprensione del modo di funzionare della lingua ci dice molto
sulla maniera in cui opera la mente umana, sui rapporti tra gli uomini e tra la mente e le
cose.
Veniamo ora ad alcuni dei più importanti concetti della grande opera di Saussure, il Corso
di linguistica generale, pubblicato postumo nel 1916, a opera di Charles Bally e Albert
Sechehaye.
Il primo di tali concetti è proprio quello di semiologia:
Definizione di Si può concepire una scienza che studia la vita
semiologia dei segni nel quadro della vita sociale; essa
potrebbe formare una parte della psicologia
sociale e, di conseguenza, della psicologia
generale; noi la chiameremo semiologia (dal greco semeîon, «segno»).
Lo scopo di questa scienza sta nel «dirci in che consistono i segni, quali leggi li regolano».
I segni però non sono solo quelli linguistici, e per questo la semiologia riguarda altri
sistemi di segni come i riti simbolici, l’alfabeto dei sordomuti, le forme di cortesia, i
segnali militari, la stessa moda, i segnali visivi marittimi, e così via. La lingua è dunque un
sistema semiologico speciale, anche se privilegiato.
E in che cosa consiste, per Saussure, il segno linguistico? Contrariamente alle idee che si
trovano nella Bibbia e in Platone, secondo lo studioso ginevrino
il segno linguistico unisce non una cosa e un nome, ma un concetto e un’immagine
acustica.
Il segno, in altre parole, è un’entità a due facce: quella del significato e quella del
significante:
la lingua è paragonabile a un foglio di carta: il pensiero è il recto e il suono è il
verso; non si può ritagliare il recto senza ritagliare nello stesso tempo il verso.
Il segno è dunque il nesso tra concetto (significato) e immagine acustica (significante).
Due sono i caratteri primordiali del segno così definito: l’arbitrarietà e la linearità. La
prima caratteristica sta a dirci che
il legame che unisce il significante al significato è arbitrario.
Il segno è una pura convenzione, in quanto non esiste alcuna necessità di legare, per
esempio, il concetto di «sorella» con l’immagine acustica francese (s + ö + r) o quella
italiana (s + o + r + e + l + l + a). Ovviamente,
[l’arbitrarietà] non deve dare l’idea che il significante dipenda dalla libera scelta
del soggetto parlante […]; noi vogliamo dire che è immotivato, vale a dire arbitrario
in rapporto al significato, col quale non ha nella realtà alcun aggancio naturale.
Per quanto concerne la seconda caratteristica, la linearità, bisogna tener presente che
il significante, essendo di natura auditiva, si svolge soltanto nel tempo e ha i
caratteri che trae dal tempo: a) rappresenta una estensione e b) tale estensione è
misurabile in una sola dimensione: è una linea.

La prima grande opposizione: lingua e parola

Alla base della sua teoria, Saussure pone l’opposizione tra il concetto di lingua (langue) e
quello di parola (parole). È questa «la prima verità», la prima grande scelta o la «prima
biforcazione». Ma, innanzitutto, la lingua non è il linguaggio. Il linguaggio è una facoltà
comune a tutti, è la facoltà universale di parlare, mentre
[la lingua è] un prodotto sociale della facoltà del linguaggio.
La lingua è qualcosa di esterno all’individuo, è un fatto istituzionale; l’individuo se la
trova di fronte, la impara, la subisce:
La lingua come [La lingua è] un tesoro depositato dalla pratica
realtà istituzionale del parlare negli appartenenti a una stessa
comunità […]. La lingua esiste nella collettività
sotto forma d’una somma di impronte depositate
in ciascun cervello.
La lingua è patrimonio di tutti, è il tesoro di tutti. Infatti, «si formano nei soggetti parlanti
delle impronte che finiscono con l’essere più o meno le stesse in tutti». E tra gli individui
così collegati dal linguaggio «si stabilisce una sorta di media: tutti riprodurranno, certo
non esattamente, ma approssimativamente, gli stessi segni uniti agli stessi concetti». E
questo è un processo che Saussure definisce processo di «cristallizzazione sociale» della
parola nella lingua.
La lingua, dunque, è un fatto sociale; un sistema di segni che l’individuo apprende a
manovrare e usare per pensare e per comunicare, insomma per vivere da uomo. Distinta
dalla lingua è la parola:
Separando la lingua dalla parola, si separa a un solo tempo ciò che è sociale da ciò
che è individuale.
Di fronte alla lingua che è «un modello collettivo», un «codice», una macchina
istituzionale apprestata per gli scopi della comunicazione,
la parola è […] un atto individuale della volontà e dell’intelligenza.
E che lingua e parola siano due realtà distinte e pertanto distinguibili, Saussure lo prova
con le afasie (dove il malato capisce i messaggi che riceve, ma ha perso l’uso della
parola), o con il fatto che possiamo leggere le lingue morte. Per tutto ciò,
Componente lo studio del linguaggio comporta […] due parti:
sociale e l’una, essenziale, ha per oggetto la lingua, che
componente nella sua essenza è sociale e indipendente
individuale del dall’individuo; l’altra, secondaria, ha per
linguaggio oggetto la parte individuale del linguaggio, vale
a dire la parola, ivi compresa la fonazione; essa è
psicofisica.
Pur non avendo «mai affrontato nelle sue lezioni la linguistica della parola» (Bally),
Saussure aveva visto che «è la parola che fa evolvere la lingua»:
Niente entra nella lingua senza essere stato nella parola e tutti i fenomeni evolutivi
hanno la loro radice nella sfera dell’individuo. [Tuttavia,] ogni creazione deve essere
preceduta da una comparazione incosciente dei materiali depositati nel tesoro della
lingua dove le forme generatrici sono classificate secondo i loro rapporti
sintagmatici e associativi.

La seconda grande opposizione: sincronia e diacronia

La prima opposizione è dunque tra lingua e parola. La seconda «grande biforcazione» è


tra sincronia e diacronia. Hermann Paul, nei suoi Principi di storia della lingua (1880),
aveva sentenziato che «uno studio scientifico della lingua che non sia storico nei fini o nel
metodo è carente». Paul esprimeva un’opinione dominante sui programmi di lavoro dei
linguisti. Data questa situazione, Saussure effettua, con la sua opposizione tra sincronia e
diacronia e il privilegiamento della sincronia, un’autentica rivoluzione nella scienza del
linguaggio.
La linguistica sincronica studia la lingua vista come sistema, non considerando i
mutamenti avvenuti nel tempo. Essa indaga la lingua sull’«asse delle simultaneità» e non
su quello delle «successioni»:
Linguistica La linguistica sincronica si occuperà dei rapporti
sincronica e logici e psicologici colleganti termini coesistenti
diacronica e formanti sistema, così come sono percepiti
dalla stessa coscienza collettiva.

La linguistica diacronica studierà […] i rapporti colleganti termini successivi non


percepiti da una medesima coscienza collettiva, e che si sostituiscono gli uni agli
altri senza formar sistema tra loro.
Saussure esemplifica: nell’antico tedesco il plurale di gast (ospite) e di hant (mano) era
rispettivamente gasti e hanti; analogamente nell’anglosassone il plurale di fōt(piede),
tōth(dente), gōs(oca) era fōti, to-thi, gōsi. È esattamente questo il tipo di regolarità che
interessa la linguistica sincronica: si tratta delle regolarità per cui la massa parlante
percepisce la lingua come un sistema. L’aspetto sincronico «per la massa parlante è l’unica
realtà». Col tempo il plurale di gast è diventato Gäste e quello di hant Hände, ma «per il
soggetto parlante la loro [dei fatti di lingua] successione nel tempo è inesistente».
Così, per esempio, «se dépit ha significato in francese “disprezzo”, ciò non toglie che
attualmente ha un senso completamente diverso; etimologia e valore sincronico sono due
cose distinte». L’etimologia di un termine non è necessaria alla descrizione del suo valore.
Pertanto,
sincronia e diacronia designeranno rispettivamente uno stato di lingua e una fase di
evoluzione.
Con ciò, la verità sincronica non esclude quella diacronica. Tuttavia, l’aspetto sincronico
domina sull’altro, perché per la massa parlante è l’unica realtà. Tale distinzione tra
sincronia e diacronia, afferma Saussure, si impone imperiosamente al linguista per la
ragione che
la lingua è un sistema di puri valori non da altro determinato che dallo stato
momentaneo dei suoi termini.
La linguistica sincronica è «la scienza degli stati di una lingua»; è linguistica statica. La
diacronica è invece una linguistica evolutiva. Di quanto detto sinora, Saussure traccia uno
schema che indica «la forma razionale» che deve prendere lo studio linguistico:

Certo, la lingua, nella sua storia, subisce influenze che le sono esterne: fatti come le
colonizzazioni, le relazioni tra lingua e istituzioni (chiesa, scuola ecc.), le politiche di
unificazione nazionale ecc., non sono indifferenti per l’evoluzione di una lingua. La
linguistica esterna può accumulare – dice Saussure – dettagli su dettagli «senza sentirsi
imprigionata nelle maglie di un sistema». Ma con la linguistica interna tutto va
diversamente, giacché
[per la linguistica interna] la lingua è un sistema che conosce soltanto l’ordine che
gli è proprio.
Un confronto con il gioco degli scacchi – dice Saussure – farà capire meglio tutto ciò,
poiché in tal caso è relativamente facile distinguere ciò che è esterno da ciò che è interno:
Il fatto che il gioco [degli scacchi] sia passato dalla Persia in Europa è d’ordine
esterno, ed è interno, al contrario, tutto ciò che concerne il sistema e le regole. Se
sostituisco dei pezzi in legno con dei pezzi in avorio, il cambiamento è indifferente
per il sistema: ma se diminuisce o aumenta il numero dei pezzi, questo cambiamento
investe profondamente la «grammatica» del gioco.
Il valore dei pezzi (o dei segni linguistici) non è collegato al materiale (legno o avorio) di
cui son fatti, ma dipende unicamente dai rapporti che si stabiliscono tra essi: regole di
posizione, di spostamento eccetera. I segni linguistici, come i pezzi della scacchiera, non
valgono per la loro sostanza, ma per la loro forma.

Il Circolo linguistico di Praga

Fondato da Vilém Mathesius nel 1926, il Circolo linguistico di Praga ebbe come
rappresentanti principali tre russi: il principe Nikolaj Sergeevič Trubeckoj (1890-1938) – il
quale dal 1922 sino alla morte insegnò all’università di Vienna –, Roman Jakobson (1896-
1982) e Sergej Karcevskij (1871-1955). Tra gli affiliati «europei» del Circolo praghese
occorre ricordare, soprattutto, Karl Bühler, Daniel Jones, Émile Benveniste e André
Martinet.
Il campo delle ricerche dei praghesi fu la fonologia. E, oltre a I fondamenti di fonologia
(1939) di Trubeckoj, occorre ricordare gli otto volumi dei Lavori del Circolo Linguistico
di Praga, pubblicati tra il 1929 e il 1938. Nel 1928, al primo congresso internazionale dei
linguisti tenutosi a L’Aia, Jakobson, Karcevskij e Trubeckoj formularono il principio per
cui la fonetica è lo studio dei suoni delle parole (studio fisiologico), mentre la fonologia è
lo studio dei suoni entro il sistema della lingua, cioè dei fonemi. La fonetica studia i suoni
concreti come fenomeni fisici; la fonologia studia i segnali fonici che vengono usati nella
comunicazione linguistica.
I fonemi sono «minime unità distintive della lingua»; sono in numero fisso in ciascuna
lingua, da venti a quaranta, e svolgono una «funzione differenziale» entro il sistema della
lingua e sul piano del significante. Così, per esempio, nelle parole italiane tare, mare,
dare, bare, pare, la «differenza» di significato è dovuta ai fonemi iniziali che sono
differenziati e differenziatori. O si pensi alla funzione distintiva del fonema /e/ nelle parole
esalare e salare: la seconda parola si distingue dalla prima solo per l’assenza del fonema
iniziale /e/.
La fonetica è dunque lo studio dell’aspetto materiale dei suoni del linguaggio, mentre la
fonologia considera solo quegli aspetti dei suoni che svolgono una determinata funzione
nella lingua e che si identificano appunto coi fonemi (Flavia Ravazzoli).
Del 1929 sono le famose Tesi (Le tesi del ’29) del Circolo linguistico di Praga, che sono
tesi programmatiche enunciate al Primo Congresso dei Filologi Slavi, e dove un ruolo
centrale è svolto dai concetti di «sistema» e di «funzione»:
Il fatto linguistico si La lingua, prodotto dell’attività umana, ha in
spiega solo comune con essa il carattere di finalità. Quando
nell’ambito del si analizza il linguaggio come espressione o come
sistema cui comunicazione, il criterio esplicativo che si
appartiene presenta come il più semplice e naturale è
l’intenzione stessa del soggetto parlante. Così
nell’analisi linguistica si deve tener conto del
punto di vista della funzione. Da questo punto di vista, la lingua è un sistema di
mezzi d’espressione appropriati a uno scopo. Non si può capire nessun fatto
linguistico senza tener conto del sistema a cui appartiene.
Sulla scia di Saussure, i praghesi sono dell’idea che
il modo migliore per conoscere l’essenza e il carattere di una lingua consiste
nell’analisi sincronica dei fatti (linguistici) attuali, i soli che offrano materiali
completi e dei quali si ha diretta esperienza.
La concezione della lingua come sistema funzionale è anche da tener presente nello studio
degli stati di lingua del passato, sia che si tratti di ricostruirli o di constatarne l’evoluzione.
In tal modo, lo studio diacronico non solo non esclude le nozioni di sistema e di funzione,
ma, al contrario, esso risulta incompleto se non si tiene conto di queste nozioni. E ancora:
per quanto riguarda l’aspetto fonico della lingua, «il contenuto sensoriale di tali elementi
fonologici è meno essenziale delle loro relazioni reciproche all’interno del sistema
(Principio strutturale del sistema fonologico)».

Il Circolo linguistico di Copenaghen

La tradizione linguistica danese (pensiamo a Rasmus Rask) ha raggiunto nel secolo scorso
il suo punto più significativo con la scuola di Copenaghen, i cui rappresentanti di maggior
spicco sono Viggo Brøndal, Hans-Jørgen Uldall e soprattutto Louis Hjelmslev (1899-
1965). Brøndal intese ritrovare nel linguaggio i concetti della logica, quali sono stati
elaborati in filosofia da Aristotele sino ai logici moderni. E «il procedimento rigidamente
logicizzante che ha condotto Brøndal a costruire la sua teoria facendo entrare i fatti in
quadri prestabiliti di tipo binario, ha attirato anche altri ricercatori» (Maurice Leroy).
Da parte sua, Hjelmslev nei Fondamenti della teoria del linguaggio (1945) presenta una
teoria (la teoria glossematica) in cui, sulla scia di Saussure («unico antecedente
indiscutibile»), la lingua viene vista come una totalità autosufficiente.
Anche per Hjelmslev «la lingua è una forma e non una sostanza», e il compito del
linguista è quello di costruire una teoria che venga a configurarsi come una specie di
«algebra» di ogni lingua:
La forma linguistica è indipendente dalla sostanza in cui si manifesta. La forma non
si può riconoscere e definire se non ponendosi sul terreno della funzione.
La sostanza di una lingua deve essere strutturata, altrimenti resta una nebulosa. E la
struttura, secondo Hjelmslev, è «una rete di dipendenze o, per dirla in un modo al tempo
stesso più esatto, più tecnico e più semplice, una rete di funzioni». La struttura è
«un’entità autonoma di dipendenze interne».
Da quanto detto scaturisce la proposta per cui è necessario studiare non le «parti» della
lingua (cioè: le unità sostanziali), quanto piuttosto le relazioni (o funzioni) esistenti e
costitutive di queste parti. Ogni elemento di un testo (orale o scritto) è considerato
l’intersezione di un «fascio di relazioni». Così, per esempio, in latino tra il caso e il
numero, che si presuppongono reciprocamente, c’è una relazione di interdipendenza; tra
sine e l’ablativo c’è una relazione di determinazione (sine presuppone l’ablativo ma
l’ablativo non presuppone sine); tra in e l’ablativo c’è una relazione di costellazione (sono
in rapporto fra loro, ma nessuno dei due presuppone l’altro) (Daniele Manesse).
La teoria linguistica di Hjelmslev si preoccupa unicamente della forma e per questo egli la
chiama glossematica (glossa in greco è lingua). Data questa preoccupazione, si
comprendono gli attacchi di Hjelmslev contro i mentalisti e i comportamentisti. I primi,
presupponendo una volontà cosciente, fanno intervenire il soggetto parlante; i secondi
fanno intervenire l’ascoltatore cui il messaggio è indirizzato. Ma il parlante e l’ascoltatore
sono estranei, per Hjelmslev, alla struttura del linguaggio.
Molto tecnica e astratta, «alla glossematica – ha scritto Giulio Lepschy – va riconosciuto il
merito di aver affrontato molti problemi, soprattutto inerenti alla logica interna […] della
teoria linguistica, sottaciuti in altre teorie, e d’averlo fatto con notevole anticipo rispetto al
periodo recentissimo, in cui le ricerche sulla teoria linguistica, in quanto distinte dalle
ricerche sul linguaggio, si sono viste riconoscere l’importanza che ad esse compete».

La grammatica generativa di Noam Chomsky: struttura profonda e struttura superficiale

Tacendo degli importanti specifici contributi di studiosi quali Leonard Bloomfield,


Jakobson, Martinet e altri ancora, vediamo rapidamente alcune delle idee centrali di Noam
Avram Chomsky (nato a Baltimora nel 1928).
La grammatica tradizionale e la linguistica strutturalistica avevano accumulato un gran
numero di fatti e di osservazioni sulla lingua, mettendo così a disposizione degli studiosi
una grande quantità di materiale empirico. La grammatica tradizionale è normativa,
mentre la linguistica strutturalistica è invece descrittiva. Ma l’una e l’altra restano sul
piano delle classificazioni, seppure talvolta raffinatissime, dei fatti linguistici.
Ebbene, con Chomsky, la linguistica compie un salto di qualità. Difatti, la linguistica
strutturale descrive la lingua, ma non riesce a spiegarla. E Chomsky ha inteso far passare
la scienza del linguaggio dallo stadio descrittivo a quello esplicativo, giacché
oggi il problema centrale per la teoria della grammatica non è la mancanza di dati,
ma piuttosto il fatto che le teorie esistenti non sono sufficienti a porre ordine nella
grande moltitudine di dati che possono essere difficilmente posti in serio dubbio.
La concezione di Chomsky, da quando apparve nel 1957 (l’anno di pubblicazione de Le
strutture della sintassi), ha subito più di una modifica, tanto che ormai si è soliti parlare di
tre diverse teorie: la prima grammatica generativa trasformazionale, la teoria standard, e la
teoria standard estesa. Siccome è la teoria standard ad aver focalizzato la discussione
successiva, esporremo i nuclei centrali di questa teoria (o almeno quelle idee di maggior
rilievo per la tradizione filosofica).
Noam Chomsky

Chomsky non vuole dunque descrivere la lingua, ma spiegarla. E a tal fine si propone di
costruire una grammatica generativa. Questa non analizza descrittivamente gli enunciati,
ma li genera; dà cioè un calcolo di tipo logico-matematico in grado di enumerare
ricorsivamente tutti e soli gli enunciati grammaticali di una lingua. In questo modo, la
grammaticalità non è la sensatezza né tanto meno la verità. È la correttezza formale di una
sequenza. Incolori verdi idee dormono furiosamente è considerato grammaticale, mentre
Lei leggere un libro di musica non è considerato tale (Eddo Rigotti).
Ne Le strutture della sintassi Chomsky aveva distinto tra frasi nucleari e frasi complesse,
queste ultime generabili dalle prime attraverso delle trasformazioni.
Più tardi, in Aspetti della teoria della sintassi (1964), egli rimpiazza tale distinzione con
quella tra «struttura profonda» e «struttura superficiale». Semplificando molto, diciamo
che la struttura profonda sta nel significato non ambiguo di una frase. Dalla struttura
profonda si passa alla struttura superficiale attraverso le trasformazioni il cui compito è di
riordinare i rapporti sintattici secondo le regole proprie di ciascuna lingua. (L’indagine
sulle trasformazioni generative è ciò che appunto caratterizza la grammatica generativa
trasformazionale.) Pietro educa Paolo e Paolo educa Pietro hanno gli stessi elementi
lessicali, ma significati diversi. Mentre non c’è diversità di significato tra Pietro educa
Paolo e Paolo è educato da Pietro, in quanto il secondo enunciato è una trasformazione
legittima della struttura profonda del primo enunciato. Nella struttura profonda l’enunciato
E si ramifica nelle categorie maggiori che sono il sintagma nominale SN e il sintagma
predicativo SP. Questi a loro volta si ramificano in altri sintagmi e questi in altri ancora,
sinché si giunge al nome N, al verbo V, all’avverbio Avv., all’aggettivo Agg., e così via,
come nello schema seguente:

La distinzione tra struttura profonda e struttura superficiale risulta utile quando, per
esempio, ci imbattiamo in frasi ambigue, per le quali l’analisi grammaticale può mostrare
che, a questi due significati, corrispondono due strutture profonde. Leggiamo in Mente e
linguaggio (1968):
Conoscere una lingua significa essere in grado di assegnare una struttura profonda e
una superficiale a una quantità infinita di frasi, di collegare tra loro nel modo giusto
queste strutture, e di assegnare una interpretazione semantica e fonetica alla
struttura profonda e a quella superficiale abbinate.

Competenza ed esecuzione

Parallela alla distinzione tra struttura profonda e struttura superficiale corre la distinzione
tra competence e perfomance, tradotti con competenza ed esecuzione. La competenza e
l’esecuzione ci rimandano alla opposizione di Saussure tra lingua e parola. Come la
lingua in Saussure, la competenza di Chomsky designa quel complesso di regole e di
meccanismi a disposizione del soggetto parlante che permettono a costui di eseguire,
creare e valutare un numero infinito di messaggi o frasi. L’esecuzione, analogamente alla
parola di Saussure, è la realizzazione concreta della competenza. Tuttavia, diversamente
da Saussure, Chomsky mette in evidenza come la competenza comporti nel soggetto una
attività creatrice sconosciuta per il parlante di Saussure, e ignota soprattutto al
comportamentismo di Bloomfield (Il linguaggio, 1953) e di Skinner (Il comportamento
verbale è del 1957).
Il fatto è che il soggetto parlante (e non solo l’adulto, ma anche il bambino) è in grado di
comprendere e di produrre un numero infinito di frasi che non ha mai sentito né letto, per
cui va in frantumi l’idea comportamentistica per la quale l’apprendimento del linguaggio
possa essere spiegato attraverso il meccanismo dello stimolo e della risposta o mediante
un addestramento ripetitivo. Riferendosi a von Humboldt, Chomsky afferma che
il linguaggio è chiamato a fare, a partire da mezzi finiti, un uso infinito.
I meccanismi che permettono di produrre frasi e frasi nuove, e di riconoscerle e giudicarle,
entrano portentosamente in funzione già in tenera età, e nessuna teoria empiristica e
comportamentistica è appunto capace di render ragione (attraverso mezzi quali
l’imitazione, la ripetizione, la memorizzazione di fatti linguistici ecc.) della «competenza»
linguistica di un bambino, per esempio, di tre anni. Messo di fronte proprio alla
«competenza» e alla «creatività linguistica» dei bambini, Chomsky, rilevata la totale
inadeguatezza esplicativa delle teorie empiristiche e comportamentistiche, presuppone
delle capacità innate. In altri termini, una quantità estesa di conoscenze linguistiche (di
regole linguistiche) giunge a noi come l’eredità linguistica del patrimonio della specie.
Un bambino è geneticamente capace di parlare; l’ambiente non fa altro che scatenare
queste sue capacità innate. E il contenuto di queste disposizioni innate Chomsky lo
identifica in quegli «universali linguistici» la cui scoperta è compito della grammatica
universale. Egli afferma infatti:
Definizione di la grammatica universale è un insieme di
grammatica principi, che caratterizza la classe delle
universale grammatiche possibili, preconizzando il modo in
cui sono organizzate le grammatiche particolari.
[…] [Essa è] un insieme di ipotesi empiriche
sulla facoltà del linguaggio determinata biologicamente.
Naturalmente, se la tesi innatistica allontana Chomsky dall’empirismo e dal
comportamentismo, essa però lo avvicina al razionalismo classico e a quella tradizione
linguistica che Chomsky chiama «linguistica cartesiana». Questa andrebbe da Cartesio a
Humboldt e avrebbe trovato attuazione, per esempio, nella Grammatica generale e
ragionata di Arnauld e Lancelot.
L’ANTROPOLOGIA CULTURALE

VI
Il concetto di cultura in Tylor e Boas

Il concetto di cultura, così come emerge dall’odierna antropologia culturale, ha addirittura


una data di nascita, il 1871, anno in cui Edward B. Tylor (1832-1917) pubblicava il suo
Cultura primitiva. In questo libro Tylor definiva così la cultura:
La cultura o civiltà intesa nel suo ampio senso etnografico è quell’insieme complesso
che include la conoscenza, le credenze, l’arte, la morale, il diritto, il costume e
qualsiasi altra capacità e abitudine acquisita dall’uomo come membro di una
società.
In tal modo Tylor allargava l’arco storico della vicenda dei popoli, in quanto questo arco
non coincide più con lo sviluppo delle scienze e delle arti dei popoli «civilizzati»: prima di
giungere a questo stadio, l’umanità si è data un’organizzazione sociale primitiva, ha
personificato i fenomeni in entità mitiche, ha concepito l’universo come la dimora degli
spiriti invisibili e tuttavia attivi (Pietro Rossi).
Successivamente a Tylor, Franz Boas (1858-1942) e la sua scuola, dalla quale provengono
studiosi come Robert H. Loewie (1883-1957) e Alfred L. Kroeber (1876-1960, autore de
Il superorganico, 1917 e de La natura della cultura, 1952), hanno insistito sul carattere
acquisito della cultura, vale a dire sulla differenza tra eredità biologica ed eredità culturale
e sulla impossibilità di riportare la seconda alla prima. Inoltre, Boas ha tenuto pure a
distinguere la «società» dalla «cultura». La società, cioè l’organizzazione sociale, è per lui
reperibile anche nel mondo degli animali; basti pensare al mondo delle api, delle formiche,
delle scimmie e dei lupi. Ma la cultura è tipica dell’uomo. A suo avviso, infatti,
la cultura umana si differenzia dalla vita animale per il potere del ragionamento e,
correlativamente, per l’uso del linguaggio.

Malinowski e l’eredità culturale

Al pari di Boas, di Loewie e di Kroeber, l’irriducibilità della cultura a condizioni


biologiche o economiche o geografiche è stata efficacemente propugnata anche dal grande
Bronislav Malinowski (1884-1942; autore di: Gli Argonauti del Pacifico occidentale,
1922; La vita sessuale dei selvaggi della Melanesia nord-occidentale, 1929; Sesso e
repressione nella vita dei selvaggi, 1927; I fondamenti delle fedi e delle morali, 1936), il
quale a proposito ha affermato:
La cultura non è Un negro di sangue puro, trasportato da bambino
riducibile a in Francia e allevato in questo paese, sarebbe
condizioni profondamente diverso da ciò che sarebbe stato
biologiche, se allevato nella giungla della sua terra
economiche o d’origine. Egli avrebbe ricevuta una diversa
geografiche eredità sociale, un’altra lingua, altre abitudini,
altre idee e credenze; egli sarebbe stato
incorporato in un’organizzazione sociale e in un
ambiente culturale differente. Questa eredità sociale è il concetto chiave
dell’antropologia culturale.
È dunque chiaro che, per l’odierna antropologia culturale, la cultura è irriducibile a
condizioni extra-culturali, come le condizioni biologiche o climatiche: razze diverse hanno
la stessa cultura, e la medesima razza ha culture diverse; sotto lo stesso clima abbiamo
culture diverse e la medesima cultura la ritroviamo sotto climi differenti. Quindi: omnis
cultura e cultura; e questo anche se è vero che i fattori extra-culturali influenzano o
condizionano in qualche misura, da precisare di volta in volta, la cultura.

Kluckhohn e la dimensione normativa dell’antropologia

Intanto, dal 1930 in poi, entra nella problematica dell’antropologia culturale un’altra
dimensione: la dimensione normativa. Sono i valori, si dice, a caratterizzare una cultura.
Sono cioè i modelli di comportamento, i modi di vita a cui viene attribuito un valore.
Questa posizione, favorita da John Dewey, George Herbert Mead, Talcott Parsons e dallo
stesso Kroeber, è espressa soprattutto da Clyde Kluckhohn (1905-1960; studioso, tra
l’altro, della tribù nativoamericana dei Navajo).
Per Kluckhohn, la cultura è un insieme di modelli normativi condivisi dai membri del
gruppo, i quali modelli servono a regolarne la condotta e sono accompagnati da certe
sanzioni nel caso che la condotta non vi si conformi.
E il concetto di modello normativo diviene nelle mani di Kluckhohn un criterio
metodologico per distinguere una cultura da un’altra cultura, per distinguere diverse
culture (cioè diverse scale di valori) all’interno della medesima società, e per individuare
le varie subculture all’interno di una cultura. È ovvio che, stando così le cose,
l’etnocentrismo è solo una illusione pseudo-scientifica che spesso ha avuto conseguenze
crudeli. È una grande lezione di tolleranza che ci proviene dall’antropologia culturale dei
nostri giorni.
E c’è di più, perché se la cultura non è determinata dai fattori extraculturali, allora
vediamo subito che la cultura implica creatività. Scrive l’antropologo d’origine russa
David Bidney (1908-1987; autore della Antropologia teorica, 1953; e de Il concetto di
libertà in antropologia, 1963):
In che senso la La cultura è essenzialmente il prodotto della
cultura è capacità creativa dell’uomo […]. Noi sosteniamo
invenzione dello che la cultura è una creazione storica dell’uomo
spirito umano e dipende, nella propria continuità, da una
trasmissione e invenzione libera e creativa.
Per questo, soggiunge al riguardo Clyde Kluckhohn,
per quanto gli antropologi seri rifuggano da qualsiasi pretesa messianica e non
affermino in alcun modo che la natura sia una specie di pietra filosofale atta a
risolvere tutti i problemi, tuttavia il concetto esplicativo reca con sé un sottofondo di
legittima speranza per gli uomini e per i loro problemi. Se i tedeschi e i giapponesi
fossero stati quello che sono stati a causa della loro natura biologica, le prospettive
per il futuro sarebbero quasi disperate; ma se la loro inclinazione alla crudeltà e
all’espansionismo è il risultato di fattori situazionali (pressioni economiche) e delle
loro culture, in questo caso è possibile fare qualcosa.
Più vicino a noi, prima Popper e dopo di lui biologi come John C. Eccles, Jacques Monod
e Peter B. Medawar hanno usato l’espressione «mondo 3» per significare il concetto di
cultura. Il mondo 1 è il mondo materiale e degli organismi; il mondo 2 quello della mente
umana; e il mondo 3 è il mondo fatto dall’uomo (e che, a sua volta, ha fatto l’uomo), è il
mondo dei prodotti umani, il mondo della cultura: dei miti, delle opere d’arte, delle teorie
scientifiche, delle istituzioni eccetera. I problemi, le teorie e le argomentazioni scientifiche
sono solo la provincia logica del mondo 3.
KARL MANNHEIM E LA SOCIOLOGIA DELLA
CONOSCENZA

VII
Concezione parziale e concezione totale dell’ideologia

Già nel capitolo sulla fenomenologia si è accennato al contributo dato da Max Scheler alla
sociologia della conoscenza. Qui si vogliono delineare i tratti di fondo delle teorie di Karl
Mannheim (1893-1947), il pensatore che più di ogni altro, insieme a Scheler, ha
contribuito, con il suo lavoro Ideologia e utopia (1929), all’impostazione dei problemi
tipici della sociologia della conoscenza (anche se, sempre in questo campo, non sono da
dimenticare i lavori di Pitirim Alexandrovitch Sorokin, Georges Gurvitch, Werner Stark,
Talcott Parsons, Robert King Merton, Florian Znaniecki ecc.).
La sociologia della conoscenza o sociologia del sapere studia i condizionamenti sociali del
sapere, «cerca di analizzare la relazione tra conoscenza ed esistenza». Il fatto di
appartenere a una determinata classe, per esempio a quella borghese o a quella proletaria,
cosa comporta per le idee morali, religiose, politiche, economiche o addirittura per lo
stesso modo di fare scienza di chi vi appartiene? E come vengono condizionate le
produzioni mentali di chi appartiene a una chiesa, a un ceto, a un partito, o a una
generazione, da tale appartenenza? Ebbene, per Mannheim:
Ci sono aspetti del pensare i quali non possono venire adeguatamente interpretati
finché le loro origini sociali rimangono oscure.
La consapevolezza del condizionamento sociale delle categorie e delle produzioni mentali
non è cosa recente. Così, tanto per citare qualche pensatore del passato, la teoria degli
idola di Bacone è un esempio della consapevolezza del condizionamento sociale del
pensiero. Ma questa consapevolezza la troviamo anche in Malebranche, Pascal, Voltaire,
Montesquieu, Condorcet, Saint-Simon, e, più vicino a noi, in Nietzsche. Fu Machiavelli a
far notare che in una maniera si pensa in piazza e in un’altra in palazzo. E Marx, da parte
sua, ha stabilito come uno dei fulcri del suo pensiero che «non è la coscienza degli uomini
che determina il loro essere, ma è, al contrario, il loro essere sociale che determina la loro
coscienza».
Ora, la sociologia della conoscenza assume e modifica criticamente questa nota
affermazione di Marx, nel senso che, senza negare che esista una influenza della società
sul pensiero, «ritiene che questa influenza non sia una determinazione, ma un
condizionamento» (Gianfranco Morra). Secondo Mannheim,
Che cosa intende [il marxismo] vide chiaramente come dietro ogni
Marx per ideologia dottrina si celi la coscienza di una classe. Questo
pensiero collettivo, che procede in accordo a
determinati interessi e situazioni sociali, fu
chiamato da Marx ideologia.
L’ideologia, in Marx, è un pensiero capovolto (non sono le idee a dar senso alla realtà, ma
è la realtà sociale a determinare le idee morali, religiose, filosofiche ecc.) e distorto (il
borghese per esempio propone le sue idee come valide universalmente, mentre esse sono
solo la difesa di interessi particolari), tendente a giustificare e a immobilizzare una
situazione di fatto.
È a partire dalla concezione marxiana dell’ideologia che Mannheim comincia a intessere
la rete dei suoi concetti. Innanzi tutto, egli distingue tra concezione particolare
dell’ideologia e concezione totale:
Sotto la prima [= la concezione particolare dell’ideologia] includiamo tutti quei casi
in cui la «falsità» è dovuta a un elemento che, intenzionale o no, consapevole o
inconscio che sia, resta a un livello psicologico e non supera il piano della semplice
bugia.
In questa concezione particolare dell’ideologia «ci si riferisce sempre a delle asserzioni
specifiche che possono venir riguardate come deformazioni, falsificazioni, senza peraltro
che da esse esca compromessa l’integrità della struttura mentale del soggetto». Ma la
sociologia della conoscenza problematizza proprio questa struttura mentale nella sua
totalità «quale appare nelle diverse correnti di pensiero e nei vari gruppi storico-sociali».
La sociologia del sapere, in altri termini, non critica le singole asserzioni che camuffano
situazioni particolari, piuttosto «le esamina su di un piano strutturale o noologico, il quale
non si presenta per nulla uguale in tutti gli uomini, ma è tale che la medesima realtà viene
ad assumere diverse forme e aspetti nel corso dello sviluppo sociale».
La concezione particolare dell’ideologia mantiene le sue analisi «su di un livello
puramente psicologico», mentre
[la concezione totale] dell’ideologia si riferisce all’ideologia di un’età o di un
gruppo storico-sociale, come una classe; la concezione totale chiama in causa
l’intera Weltanschauung dell’opposizione (compreso il suo apparato concettuale), e
giunge a comprendere tali concetti come un prodotto della vita collettiva cui egli
partecipa.
Si smaschera l’ideologia parziale quando si dice, per esempio, all’avversario che questa
sua idea è solo una difesa del suo posto di lavoro o di questo o quel privilegio sociale; si
scopre un’ideologia totale quando constato una corrispondenza tra una situazione sociale e
una determinata prospettiva o coscienza collettiva.

Il marxismo è ideologico? La distinzione tra ideologia e utopia

Ora, però, Marx usò unilateralmente la scoperta del condizionamento sociale del pensiero.
Egli cercò infatti di invalidare la concezione borghese del mondo non perché essa sia «un
deliberato inganno politico», bensì proprio perché determinata da una precisa situazione
sociale. La Weltanschauung borghese è la diretta filiazione di una situazione storica e
sociale. Ma se il condizionamento sociale vale per il pensiero borghese, non vale anche
per il pensiero marxista? Di seguito la soluzione proposta da Mannheim:
Perché il marxismo Si può facilmente mostrare che coloro i quali
è una ideologia pensano in termini socialisti e comunisti
rinvengono l’elemento ideologico solo nelle idee
dei loro avversari, mentre considerano le proprie
interamente libere dalla deformazione dell’ideologia. Come sociologi, non vi è
alcuna ragione di non applicare al marxismo quanto esso stesso ha scoperto e di non
rilevare, caso per caso, il suo carattere ideologico.
E proprio quando uno «ha il coraggio di sottomettere non solo il punto di vista
dell’avversario, ma quello di ciascuno, il suo compreso, all’analisi ideologica», allora si
passa dalla critica dell’ideologia alla sociologia della conoscenza vera e propria. La quale
sociologia della conoscenza compie anche un’altra distinzione: quella tra ideologia e
utopia.
Con ideologia, dice Mannheim, intendiamo «le convinzioni e le idee dei gruppi
dominanti», «i fattori inconsci di certi gruppi [che] nascondono lo stato reale della società
a sé e agli altri e pertanto esercitano su di esso una funzione conservatrice».
Il concetto di utopia pone in luce una seconda e del tutto opposta scoperta: «Esistono […]
dei gruppi subordinati, così fortemente impegnati nella […] trasformazione di una
determinata condizione sociale, da non riuscire a scorgere nella realtà se non quegli
elementi che essi tendono a negare. Il loro pensiero è incapace di una diagnosi corretta
della società presente». Il pensiero di tali gruppi «non è mai un quadro obiettivo della
situazione, ma può essere usato soltanto come una direzione per l’azione». È un pensiero
che «volge […] le spalle a quanto potrebbe minacciare la sua convinzione profonda o
paralizzare il suo desiderio di rivoluzione».
Quindi, mentre l’ideologia è il pensiero conservatore che si erge a difesa degli interessi
acquisiti, l’utopia è il pensiero volto a distruggere l’ordine esistente. Per Mannheim,
dunque, l’utopia è un progetto realizzabile; è una «verità prematura». Di tali utopie,
anch’esse ovviamente condizionate socialmente, Mannheim analizza quattro forme:
1 il chiliasmo orgiastico degli anabattisti;
2 l’ideale liberale-umanitario che guidò il movimento della rivoluzione francese;
3 l’ideale conservatore;
4 l’utopia socialista-comunista.
L’ideologia è il pensiero della classe «superiore» che detiene il potere e cerca di non
perderlo; l’utopia è il pensiero della classe «inferiore» che mira a liberarsi dalle
oppressioni e a impadronirsi del potere.

Il relazionismo evita il relativismo?

Se il pensiero è socialmente condizionato, allora dev’essere socialmente condizionata


anche la sociologia della conoscenza. Mannheim è pronto a riconoscere questo
condizionamento:
Possiamo […] individuare, con relativa precisione, le condizioni che spingono le
persone a riflettere più sul pensiero che sulle cose del mondo e mostrare come, in
questo caso, non tanto si faccia questione di una verità assoluta, quanto del fatto, in
sé allarmante, di una stessa realtà che appare diversa a differenti osservatori.
Alla base della genesi della sociologia della conoscenza Mannheim vede «l’intensificarsi
della mobilità sociale». Si tratta di una mobilità verticale e orizzontale:
[La mobilità orizzontale è] il movimento da una posizione all’altra o da un luogo
all’altro, senza che intervenga un cambiamento nello stato sociale.

[La mobilità verticale, invece, consiste] in un rapido movimento tra i diversi strati
nel senso di un’ascesa o di un declino sociale.
L’uno e l’altro tipo di mobilità contribuiscono a rendere le persone incerte nei riguardi
della loro concezione del mondo e a distruggere l’illusione, dominante nelle società
statiche, per cui
ogni cosa può mutare, ma il pensiero rimane eternamente lo stesso.
A questo punto, resta da affrontare il problema principale della sociologia della
conoscenza. Difatti, se ogni pensiero è socialmente condizionato, se ogni concezione del
mondo è relativa alla condizione sociale di chi ne è portatore, dove sta la verità? Non c’è
più criterio alcuno per distinguere concezioni vere da concezioni false? Il presupposto
fondamentale della sociologia della conoscenza (e cioè il condizionamento sociale del
pensiero) non porta di necessità al relativismo?
Sono, questi, problemi che non si possono evitare, e Mannheim li affronta e tenta di
risolverli con la sua teoria dell’intellighentzia e, connessa a questa, con la teoria del
relazionismo.
Il pensiero è socialmente condizionato; tuttavia, dice Mannheim, l’intellettuale, conscio
dei condizionamenti del suo pensiero e di quello delle altre concezioni del mondo, proprio
in base a questa sua consapevolezza riuscirebbe a svincolarsi dal condizionamento sociale.
L’intellighentzia, insomma, sarebbe un gruppo relativamente indipendente da quegli
interessi sociali che vincolano, limitandole, le concezioni del mondo degli altri gruppi. Gli
intellettuali, consci dei legami tra le diverse Weltanschauungen e l’esistenza sociale
sarebbero in grado di pervenire a «una sintesi delle varie prospettive» e quindi a una
visione più oggettiva della realtà. Da qui la teoria del relazionismo:
Definizione del [La sociologia della conoscenza] sottopone
concetto di consapevolmente e sistematicamente ogni
relazionismo fenomeno intellettuale, senza eccezione, alla
domanda: in rapporto a quale struttura sociale
tali fenomeni nascono e sono validi? Il
riferimento delle idee individuali all’intera struttura storico-sociale non dovrebbe
andar confuso con un filosofico relativismo che nega la validità di ogni modello e
l’esistenza di un ordine nel mondo. Come il fatto che ogni misura nello spazio
dipende dalla natura della luce non significa che le nostre misure siano arbitrarie,
quanto piuttosto che esse sono valide in relazione alla luce, così è il relazionismo, e
non già il relativismo e l’arbitrarietà a esso implicita, che si applica alle nostre
discussioni. Il relazionismo non significa che manchino criteri di verità nella
discussione. Secondo esso, tuttavia, è proprio della natura di certe affermazioni il
non poter venire formulate in assoluto, ma solo nei termini della prospettiva posta da
una determinata situazione.
Ora, considerando proprio l’esempio scelto da Mannheim, vediamo subito che c’è una
differenza abissale tra la relatività delle conoscenze fornite dalle scienze naturali e il
relativismo delle varie prospettive in cui di filato ci fa scivolare la sociologia della
conoscenza. Ogni conoscenza scientifica è relativa all’epoca in cui la si propone e la si
prova: dipende dal sapere precedente, dagli strumenti all’epoca disponibili eccetera.
Tuttavia le teorie scientifiche, se si rispettano le condizioni del metodo scientifico, sono
universali e valide per tutti, se pur smentibili in un successivo periodo.
Ma quale tipo di prova abbiamo per selezionare le diverse concezioni del mondo
socialmente condizionate? Se ogni fenomeno intellettuale è relativo a un particolare
contesto sociale, non è forse vero che ci troviamo in concezioni chiuse, tra le quali è
impossibile scegliere razionalmente, per cui diventa inevitabile il relativismo?
Al fine di evitare lo spettro del relativismo, Mannheim ha proposto il suo relazionismo.
Ma «a questo punto ci pare difficile individuare una vera differenza tra relativismo e
relazionismo, e questo ultimo ci appare solo come una versione del “relativismo culturale”
sostenuto da alcuni antropologi, secondo cui vi sarebbero vari universi sociali con modi di
vita propri, né vi sarebbe possibilità di comunicazione tra i membri di tali differenti
universi» (Alberto Izzo).
In realtà, è la base epistemologica del pensiero di Mannheim ad apparire fragile. In esso
manca una chiara distinzione tra la genesi (sociale o meno) delle teorie e la loro prova;
manca una adeguata idea di prova e anche la distinzione tra teorie empiricamente
controllabili e teorie incontrollabili. Ma con ciò non si vuol negare né l’acuta sensibilità
culturale di Mannheim, né il fatto che egli abbia posto tutta una serie di problemi sui quali
ha successivamente lavorato la sociologia empirica sia europea sia americana.
LA FILOSOFIA DEL DIRITTO: GIUSNATURALISMO,
REALISMO GIURIDICO, KELSEN E IL
GIUSPOSITIVISMO

VIII
Gustav Radbruch e il giusnaturalismo

Nello sviluppo di questo corso di storia delle idee filosofiche largo posto è stato riservato
alla teoria politica, alle argomentazioni tendenti a legittimare un tipo di Stato piuttosto che
un altro (lo Stato totalitario o quello democratico), ai rapporti intercorrenti tra morale e
norme giuridiche. Nel XX secolo le diverse teorie di filosofia del diritto si sono coagulate,
sostanzialmente, attorno a tre poli principali: a) il giusnaturalismo; b) il positivismo
giuridico; c) il realismo giuridico.
Il giusnaturalismo – dottrina che sin dai tempi antichi (pensiamo all’Antigone di Sofocle)
ha attraversato l’intera tradizione occidentale – trova nel Novecento un rappresentante di
prestigio nel tedesco Gustav Radbruch (1878-1949). Per il giusnaturalismo una legge è
valida solo se è giusta; se non è giusta, non est lex sed corruptio legis. Nella sua Filosofia
del diritto (1932), Radbruch (che nella Germania di Hitler perderà la cattedra) fa presente
che:
La ragione per cui Allorché una legge nega coscientemente la
certe leggi non volontà di giustizia, per esempio concede
sono valide e arbitrariamente o rifiuta i diritti dell’uomo,
vanno pertanto manca a essa la validità […]; anche i giuristi
rifiutate devono trovare il coraggio di rifiutarle il
carattere giuridico.

Ci possono essere leggi così tanto ingiuste e


dannose socialmente che bisogna rifiutar loro il carattere giuridico […] giacché vi
sono principi giuridici fondamentali che sono più forti di ogni normazione giuridica
tanto che una legge che contraddice a essi è priva di validità.

Dove la giustizia non è neppure perseguita, dove l’uguaglianza, che costituisce il


nucleo della giustizia, viene coscientemente negata dalle norme del diritto positivo,
la legge non soltanto è diritto ingiusto, ma manca pure in generale di giuridicità.
Dinanzi a queste espressioni di Radbruch, come anche dinanzi all’atteggiamento di
Antigone, tutti approveranno gli intenti elevati e umanitari del giusnaturalismo e delle
«leggi che gli dèi hanno posto nel cuore degli uomini». Ma come si potrà rispondere alla
richiesta di esplicitare, enumerare e fondare una volta per tutte queste leggi poste dagli dèi
nel cuore degli uomini? Cos’è, insomma, la giustizia? C’è un criterio assoluto che ci
permetta di stabilire in maniera definitiva e per tutti cos’è giusto e cosa è ingiusto?
Questo è il problema di fondo del giusnaturalismo e insieme la sua corona di spine.

Il realismo giuridico da Friedrich von Savigny a Roscoe Pound

Per il realismo giuridico (corrente di pensiero che pure ha radici lontane), il diritto non è
fondato da un ideale di giustizia né si fonde con gli ordinamenti giuridici costituiti. Il
diritto sorge piuttosto da quella realtà sociale dove i comportamenti umani fanno e
disfanno le regole di condotta. Diritto non è la norma giusta (in base a una certa etica
filosofica) o la norma valida (secondo e in un dato ordinamento), ma la regola efficace che
viene emergendo dalla vita vissuta degli uomini.
Di questa corrente di pensiero fanno parte:
la scuola storica del diritto di Friedrich Karl von Savigny (1779-1861) e del suo discepolo
Georg Friedrich Puchta (1797-1846), rappresentanti di quel romanticismo giuridico che
vede nello «spirito del popolo» e nel diritto consuetudinario le fonti primarie del diritto;
Hermann Kantorowicz (1877-1940), il quale ne La lotta per la scienza del diritto del 1906
sostenne che, accanto al diritto statuale, esiste con uguale valore il «diritto libero», vale a
dire il diritto «prodotto dall’opinione giuridica dei membri delle società, dalle sentenze dei
giudici e dalla scienza giuridica: esso vive indipendentemente dal diritto statuale, ed è anzi
il terreno dal quale quest’ultimo nasce» (Guido Fassò);
Eugen Ehrlich (1862-1922), il quale ne La fondazione della sociologia del diritto (1913)
sostiene che il centro di gravità dello sviluppo del diritto risiede nella società stessa, e
scrive che «è un errore quel che oggi molti credono e cioè che tutto il diritto venga
prodotto dallo Stato con le sue leggi. La maggior parte del diritto trae immediatamente
origine dalla società in quanto esso è interno ordinamento dei rapporti sociali, del
matrimonio, della famiglia, delle corporazioni, del possesso, dei contratti, della
successione, e non è mai stato ridotto a norme giuridiche»;
Philipp Heck (1858-1943), il quale – rappresentante principale della scuola di Tubinga –
alla giurisprudenza dei concetti volle contrapporre la giurisprudenza degli interessi, dove
le leggi vengono considerate come le «risultanti degli interessi di carattere materiale,
nazionale, religioso ed etico che in ogni comunità giuridica si affrontano e lottano per
venir riconosciuti».
Questi sono solo alcuni dei pensatori più prestigiosi della tradizione del realismo
giuridico. Più vicino a noi, chi meglio e più radicalmente degli altri ha difeso tale corrente
di pensiero è stato il giurista americano Oliver Wendell Holmes (1841-1935), per molti
anni giudice della Corte Suprema. Holmes «fu il primo, nell’esercizio appunto delle sue
funzioni di giudice, a sconfessare il tradizionalismo giuridico delle corti, e a introdurre
un’interpretazione evolutiva del diritto, cioè più sensibile ai mutamenti della coscienza
sociale» (Norberto Bobbio).
A Holmes dobbiamo affiancare colui che è considerato il più grande filosofo americano
del diritto, Roscoe Pound (1870-1964), il quale nelle Interpretazioni di storia giuridica
(1922) ha sostenuto che si deve pensare al diritto «non come a un organismo, che cresce a
causa e per mezzo di qualche proprietà a esso inerente, ma […] come a un edificio,
costruito dagli uomini al fine di soddisfare umane aspirazioni e di continuo riparato,
restaurato e ampliato per venire incontro alla crescita o al mutamento delle aspirazioni e
anche al mutamento delle usanze». (Più avanti negli anni, Pound si è orientato verso un
tipo di giusnaturalismo non dimentico della storia.)
Altro noto realista giuridico americano è stato Jerome Frank (1889-1957), il quale affermò
che il desiderio della certezza del diritto equivale al «desiderio infantile» del padre –
coloro che cercano la certezza del diritto tentano di soddisfare i desideri infantili trovando
appunto nel diritto «un surrogato del padre» –.
Ma si può davvero così facilmente eliminare la questione della certezza del diritto? E poi:
in una società con forte mobilità e sotto spinte innovatrici le più diverse e contraddittorie,
quali «nuove» consuetudini il giudice dovrà avallare?
Inoltre, perché un fatto, e cioè un comportamento efficace, vale a dire seguito da un
gruppo, diventi una norma, occorre che venga accolto in un determinato sistema giuridico,
come comportamento obbligatorio, come comportamento cioè la cui violazione implica
una sanzione. Ma «questa forma giuridica viene attribuita al diritto consuetudinario o dalla
legge, in quanto vi si richiami, o dal giudice, in quanto egli tragga la materia della sua
decisione da una consuetudine, o dalla concorde volontà delle parti» (N. Bobbio).
Insomma, le regole che il giudice scopre allo stato nascente nella società non sono ipso
facto norme giuridiche, ma lo diventano solo quando il giudice, in base a una norma del
sistema giuridico che glielo consente, le riconosce e attribuisce a esse forza coattiva.

Hans Kelsen: essere, dover essere e la dottrina pura del diritto

Il giusnaturalismo riduce la validità a giustizia, ma mentre da una parte vediamo che nel
corso della storia è difficile trovare un criterio assoluto di giustizia, dall’altra ci troviamo
di fronte a leggi giuridicamente valide e magari efficaci (cioè eseguite) che la coscienza di
alcuni gruppi e di singoli reputano ingiuste.
Il realismo riduce la validità a efficacia, ma non è difficile rendersi conto che l’efficacia
non è sempre accompagnata dalla validità.
A queste due grosse correnti si contrappone il positivismo giuridico che tenta di tenere
distinte giustizia, validità ed efficacia del diritto. Questa è la posizione di Hans Kelsen, il
quale è sì positivista giuridico, ma non lo è in senso «ideologico», nel senso che è
orientato a uno studio scientifico del diritto positivo. In altri termini, il positivismo
giuridico nella sua versione ideologica sostiene che la giustizia delle norme si riduce al
fatto che esse sono poste da chi ha la forza per farle rispettare. Come diceva Hobbes:
iustum quia iussum. E comandato da chi? Da chi ha la forza per imporre i propri comandi.
Dunque: per il positivista giuridico ideologico il «principe» è creatore di giustizia. Kelsen,
invece, afferma che ciò che costituisce il diritto è la sua validità giuridica, e aggiunge che
la norma giuridica si qualifica, a differenza di altre norme, per la sua coattività, ma non
sostiene affatto che il diritto valido sia anche quello giusto. Il problema della giustizia è,
per Kelsen, un problema etico. Mentre il problema giuridico è quello della validità delle
norme – ossia è il problema di vedere:
a se l’autorità che ha emanato questa o quella norma aveva o no il potere legittimo per
farlo;
b se la norma non sia stata abrogata;
c se sia compatibile o meno con le altre norme del sistema giuridico.
Hans Kelsen (nato nel 1881 a Praga e dal 1940 professore in America, dove è morto nel
1973) è autore di opere come: Problemi capitali della dottrina del diritto dello Stato
(1911); Teoria generale dello Stato (1925); I principi filosofici della dottrina del diritto e
del positivismo giuridico (1928); La dottrina pura del diritto (1934), assai nota.
Le opere di maggior rilievo pubblicate da Kelsen nel periodo americano sono: Teoria
generale del diritto e dello stato (1945); Società e natura (1943); Pace attraverso il diritto
(1944); La teoria comunista del diritto (1955).
Dal 1919 al 1929 Kelsen fu professore all’università di Vienna e qui fu in stretto contatto
con i pensatori neopositivisti. (Ricordiamo anche che collaborò alla redazione della
Costituzione della giovane Repubblica Austriaca.)
Va subito detto che, insieme a Max Weber, ai neokantiani e ai neopositivisti viennesi,
Kelsen distingue tra giudizio di fatto (o descrizione scientifica) e giudizio di valore:
La scienza può La scienza non è in grado di pronunziare giudizi
riconoscere i valori, di valore, quindi non vi è autorizzata. Ciò si
ma non produrli applica ugualmente alla scienza del diritto, anche
se è considerata come una scienza dei valori. Al
pari di ogni scienza dei valori, essa consiste nella
conoscenza dei valori ma non può produrre questi valori; può comprendere le norme
ma non può crearle.
Se la conoscenza non può creare i valori, allora compito dello scienziato del diritto non è
quello di fondare un ideale di giustizia. Ne La dottrina pura del diritto Kelsen precisa:
Lo scienziato del [La dottrina pura del diritto] vuole conoscere
diritto non è un esclusivamente e unicamente il suo oggetto. Essa
politico del diritto cerca di rispondere alla domanda: che cosa è e
come è il diritto; non però alla domanda: come
deve essere o come si deve produrre il diritto. È
scienza del diritto, non già politica del diritto.
Ecco dunque la prima proposta di Kelsen: delimitare il diritto rispetto al valore della
giustizia. Questo non significa eliminare la considerazione etica del diritto. Significa solo
che la valutazione etica delle norme giuridiche non è compito della scienza giuridica
(Mario G. Losano). Il teorico del diritto si pone e cerca di risolvere problemi concernenti
la natura e la funzione del diritto. Kelsen parte dunque dalla distinzione kantiana tra essere
e dover essere. E mentre noi parliamo della natura attraverso proposizioni descrittive, il
diritto è «dover essere». Il nesso tra i fenomeni naturali è un nesso causale, la norma
giuridica enuncia un nesso tra eventi mediante un giudizio basato non sul principio di
causalità, ma su un principio che Kelsen chiama di imputazione.
Distinguendo la norma giuridica dalla legge naturale, Kelsen dice che la norma enuncia
che, dato un evento A (che è l’illecito), deve seguire a esso un evento B (la sanzione).
Tuttavia, appunto, il nesso tra l’illecito e la sanzione non è un nesso causale tra fenomeni
naturali che il pensiero semplicemente constata, quanto piuttosto è l’imputazione o
l’attribuzione – compiuta dalla volontà di qualcuno – di una conseguenza a un fatto che di
essa non è di per sé causa, ma è condizione; e che lo è perché una volontà l’ha posta come
tale. E già fin dagli inizi del pensiero di Kelsen appare chiaro che la volontà che vuole la
conseguenza enunciata dalla sanzione è voluta dallo Stato (G. Fassò).
Il diritto, quindi, si identifica con lo Stato, il quale impiega la forza per impedire l’impiego
della forza nella società. In questo senso, il diritto è «tecnica sociale» e «organizzazione
della forza».

Sanzione, norma giuridica e norma fondamentale

Una norma giuridica attribuisce (ecco l’imputazione) una conseguenza a una condizione.
La conseguenza è la sanzione e la condizione è l’illecito. E l’illecito, secondo Kelsen, non
è tale di per sé (nel senso che esisterebbero comportamenti illeciti di per sé), né esso è tale
per il fatto che sia un’azione proibita da un comando. Per Kelsen, un’azione è illecita
quando a essa è attribuita una sanzione. Di conseguenza, appare evidente che
il concetto di dovere giuridico differisce da quello di dovere morale per il fatto che il dovere giuridico
non è il comportamento che la norma «richiede», che «deve» esser osservato.
Il dovere giuridico è, invece, il comportamento con
In che senso il l’osservanza del quale si evita l’illecito, cioè l’opposto del
dovere giuridico è comportamento che costituisce una condizione per la
sanzione. Soltanto la sanzione deve essere applicata.
diverso dal dovere
morale In altri termini, ogni norma contiene due aspetti: da
un lato essa dice che un dato individuo deve
osservare una data condotta (e questo è il dover essere della norma), dall’altro dice che un
altro individuo deve eseguire una sanzione nel caso che sia violata la prima norma. A
scopo di chiarezza:
La norma quale Prendiamo un esempio: «non si deve rubare; se
attribuzione di una qualcuno ruba, sarà punito». Se si assume che la
sanzione a un prima norma la quale proibisce il furto sia valida
illecito soltanto se la seconda norma colleghi al furto
una sanzione, in tal caso la prima norma è
certamente superflua in una esposizione esatta
del diritto. Se pure esiste, la prima norma è contenuta nella seconda, che è l’unica
norma giuridica genuina.
Una norma, dunque, attribuisce una sanzione a un illecito. Ma perché un giudice sia
obbligato a infliggere una sanzione, deve esistere una norma ulteriore la quale imputi, a
sua volta, una sanzione per la mancata esecuzione della prima sanzione:
Devono esistere pertanto due norme distinte: una la quale disponga che un organo
deve eseguire una sanzione contro un soggetto, e un’altra la quale disponga che un
altro organo deve eseguire una sanzione contro il primo organo, nel caso che la
prima sanzione non sia eseguita […]. L’organo della seconda norma può a sua volta
essere obbligato da una terza norma a eseguire la sanzione disposta dalla seconda, e
così via.
E così via… ma non si può retrocedere all’infinito: vi deve essere un’ultima norma della
serie. Kelsen la chiama la norma fondamentale, la quale sta a fondamento della validità di
tutte le norme costituenti un ordinamento giuridico.
Ma cos’è questa norma fondamentale? Essa non è una norma posta, ma presupposta.
Kelsen afferma che tale norma fondamentale logicamente necessaria e presupposta è la
costituzione; essa è «produttrice di diritto» per la ragione che «l’individuo o l’assemblea
degli individui che hanno approvato la costituzione su cui si basa l’ordinamento giuridico
sono considerati un’autorità produttrice di diritto». Specifichiamo meglio: se si chiede
perché si dia un atto coercitivo (un individuo mette in prigione un altro individuo), si
risponde che questo atto è stato prescritto da una sentenza giudiziaria. Ma perché questa
sentenza giudiziaria è valida? Perché è stata creata in conformità a una legge penale. E
questa trae la sua validità dalla costituzione.
Se ora ci chiediamo perché la costituzione è valida, risaliamo forse a una costituzione più
antica, finché, dice Kelsen
da ultimo arriviamo a una costituzione che è storicamente la prima che venne dettata
da un singolo usurpatore o da una qualche assemblea. La validità di questa prima
costituzione è il presupposto ultimo, il postulato finale, dal quale dipende la validità
di tutte le norme del nostro ordinamento giuridico.
L’opera di Kelsen è stata di grande aiuto per far capire cos’è e come funziona il diritto.
Certo, il positivismo giuridico va a braccetto con il relativismo: non ci dice cos’è giusto e
cos’è ingiusto in assoluto; lascia libera la nostra coscienza. E quando il 17 maggio del
1952 Kelsen tenne l’ultima lezione a Berkeley, confessò apertamente di non aver risposto
alla cruciale domanda su che cos’è la giustizia:
La giustizia della La mia unica scusa è che, a questo riguardo,
libertà sono in ottima compagnia: sarebbe stato più che
presuntuoso far credere […] che io sarei potuto
riuscire là dove erano falliti i pensatori più
illustri. Di conseguenza, non so, né posso dire, che cosa è la giustizia, quella
giustizia assoluta di cui l’umanità va in cerca. Devo accontentarmi di una giustizia
relativa e posso soltanto dire che cosa è per me la giustizia. Poiché la scienza è la
mia professione, e quindi la cosa più importante della mia vita, la giustizia è per me
quell’ordinamento sociale sotto la cui protezione può prosperare la ricerca della
verità. La «mia» giustizia, dunque, è la giustizia della libertà, la giustizia della
democrazia, in breve, la giustizia della tolleranza.
In Italia, sulla scia di Kelsen, si pongono gli interessanti e acuti lavori di Norberto Bobbio
(1909-2004) e di Uberto Scarpelli (1924-1993). Del primo ricordiamo: L’analogia nella
logica del diritto (1938); Teoria della norma giuridica (1958); Teoria dell’ordinamento
giuridico (1960); Studi per una teoria generale del diritto (1970); Giusnaturalismo e
positivismo giuridico (1965). Del secondo: Filosofia analitica, norme e valori (1961);
Cos’è il positivismo giuridico (1965); Semantica, morale, diritto (1969); L’etica senza
verità (1982).
CHAÏM PERELMAN E LA NUOVA RETORICA

IX
Che cos’è la teoria dell’argomentazione

In qualche modo connessa alla filosofia del diritto, ma estremamente significativa anche
per altri ambiti di discorso diversi dal diritto, quali, per esempio, la filosofia o la politica, è
la teoria dell’argomentazione o nuova retorica elaborata da Chaïm Perelman (1912-1984),
professore nella Libera Università di Bruxelles, il quale nel 1958 ha pubblicato il Trattato
dell’argomentazione: la nuova retorica, lavoro scritto insieme a Lucie Olbrechts-Tyteca.
Il problema centrale della teoria della argomentazione è il seguente: al di là dei discorsi
espressivi ed emotivi, al di là delle deduzioni matematiche e delle teorie scientifiche
empiricamente controllate, c’è un ampio ambito di discorsi o argomentazioni, che non
sono affatto poesia, e che, pur non avendo la forza e la struttura delle prove dimostrative,
tendono però a «persuadere», a «provare» una qualche tesi.
Questo ambito è vastissimo: «occupa il campo di ogni forma di discorso persuasivo, dalla
predica all’arringa, dall’orazione alla concione, ovunque la ragione, intesa come facoltà di
escogitare argomenti pro o contro una tesi, è adoperata per sostenere una causa, per
ottenere un consenso, per guidare una scelta, per giustificare o determinare una decisione.
Vi è compreso tanto il discorso del filosofo che confuta gli errori altrui e difende la propria
teoria, quanto il discorso quotidiano di due amici, che discutono tra loro sul miglior modo
di passare le vacanze. Soprattutto vi sono compresi i mezzi di prova non dimostrativi, cioè
i mezzi di prova che sono propri di scienze dell’uomo quali il diritto, l’etica, la filosofia.
Si sarebbe tentati di definire la teoria dell’argomentazione come la teoria delle prove
razionali non dimostrative, e in modo ancor più pregnante, come la logica (qui usando il
termine “logica” in senso largo) delle scienze non dimostrative. Dove sono in gioco valori,
non importa se sublimi o volgari, la ragione dimostrativa, quella cui si riferisce la logica in
senso stretto, è impotente: non rimane che inculcarli (o conculcarli) oppure trovare per
sostenerli (o per confutarli) delle “buone ragioni”. La teoria dell’argomentazione è lo
studio metodico delle buone ragioni con cui gli uomini parlano e discutono di scelte che
implicano il riferimento a valori quando hanno rinunciato ad imporle con la violenza o a
strapparle con la coazione psicologica, cioè alla sopraffazione o all’indottrinamento»
(Norberto Bobbio).
In questo modo, distinguendo tra dimostrazione e argomentazione, tra logica in senso
stretto e retorica, la teoria dell’argomentazione si configura – prosegue Bobbio – «come
un tentativo di recuperare l’etica al dominio della ragione, se pure di una ragione pratica
distinta dalla ragione pura o, se si vuole, come la scoperta (o riscoperta) di una terra
rimasta per troppo tempo inesplorata dopo il trionfo del razionalismo matematizzante tra
quelle occupate dalla forza invincibile della ragione e, oppostamente, dalla ragione
invincibile della forza». Leggiamo nel Trattato dell’argomentazione:
Nessuno può negare che la capacità di deliberare e argomentare sia un segno
distintivo dell’essere ragionevole.
Tuttavia, dopo Cartesio, l’ambito della ragionevolezza è rimasto inesplorato. Ed è rimasto
inesplorato perché con Cartesio e da Cartesio in poi la ragione è stata identificata con
quelle dimostrazioni capaci di estendere, a partire da idee chiare e distinte, e mediante
prove apodittiche, l’evidenza degli assiomi a tutti i teoremi. Di conseguenza, il
ragionamento costruito more geometrico divenne il modello della razionalità, l’unico tipo
di pensiero che «potesse avere dignità di scienza».

La ragionevolezza se non è razionalità non è neppure emotività

Ora, la teoria dell’argomentazione rompe con la tradizione della ragione apodittica


cartesiana. Scrivono Perelman e la Olbrechts-Tyteca:
La nuova retorica si Il nostro metodo differirà […] radicalmente da
distacca dal quello dei filosofi che si sforzano di ridurre i
modello delle ragionamenti in materia sociale, politica o
scienze deduttive e filosofica, ai modelli forniti dalle scienze
sperimentali deduttive e sperimentali, e che respingono come
privo di valore tutto ciò che non si conforma a
schemi previamente imposti.
Dunque, la nuova retorica rompe rispetto «a una concezione della ragione e del
ragionamento, nata con Descartes, [e] che ha improntato di sé la filosofia occidentale degli
ultimi tre secoli». Questa rottura, però, significa anche un’altra cosa: la ripresa di
un’antica e classica tradizione, quella della retorica e della dialettica greche. Si capisce
allora che
Il ritorno al pensiero [il Trattato dell’argomentazione si rifà]
rinascimentale e soprattutto al pensiero rinascimentale e, al di là
alla retorica e alla di questo, a quello degli autori greci e latini che
dialettica greche hanno studiato l’arte di persuadere e di
convincere, la tecnica della deliberazione e della
discussione. È per questo, anche, che
presentiamo il trattato stesso come una nuova retorica.
L’intento di Perelman e Olbrechts-Tyteca è proprio quello di far «rivivere una tradizione
gloriosa e secolare». Tradizione di enorme importanza, e non solo tecnica (pensare ai tipi
di argomentazioni che possono risultare efficaci nei tribunali, o alle odierne tecniche di
propaganda), ma anche filosofica, perché proprio attraverso lo studio della retorica si
tenta di dire che l’uomo non può venir arbitrariamente ridotto o all’emozione dei gridi
dell’anima o, viceversa, alla ragione costrittiva dei ragionamenti deduttivi.
È la retorica, appunto, che vuol mostrarci come accanto allo spessore razionale c’è,
nell’uomo, quello del ragionevole. E nell’ambito del ragionevole entrano quei valori etici,
politici, o anche religiosi che sono le cose che più contano per l’uomo. La nuova retorica
intende quindi strappare dall’abisso dell’arbitrario e dalla pura emozionalità il mondo dei
valori per portarli in quella «ragionevolezza» che loro compete propriamente. Questo
avevano compreso gli antichi greci. Di conseguenza, affermano Perelman e la sua
collaboratrice,
la nostra analisi concerne le prove che Aristotele chiama dialettiche, prove che egli
esamina nei Topici e di cui mostra l’impiego nella Retorica.
Da quanto detto, si comprende bene che la teoria dell’argomentazione si configura come
una analisi della struttura, della funzione e dei limiti del discorso persuasivo. Tale analisi
determina e delimita il «campo del ragionevole distinto tanto dal razionale puro quanto
dall’irrazionale» (N. Bobbio).
Ma proprio per assolvere tale compito, la teoria dell’argomentazione non è un discorso
astratto e vuoto su presunte capacità umane. Certo, tramite essa si arriva anche, in qualche
modo, a una immagine dell’uomo, differente per esempio da quella dell’uomo di Cartesio.
Ma ci si arriva a partire da un’ampia ispezione di tipi di argomentazioni persuasive:
I diversi ambiti in Noi intendiamo innanzi tutto caratterizzare le
cui opera diverse strutture argomentative […] e cercheremo
l’argomentazione di costruirla [la teoria dell’argomentazione]
persuasiva analizzando i mezzi di prova di cui si servono le
scienze umane, il diritto, la filosofia;
esamineremo argomentazioni presentate da
pubblicisti nei loro giornali, da uomini politici nei loro discorsi, da avvocati nelle
loro arringhe, da giudici nelle motivazioni delle loro sentenze, da filosofi nei loro
trattati.

Argomentazione e uditorio

Specificata la natura della teoria dell’argomentazione, e dopo aver accennato alla sua
rilevanza filosofica e alla tradizione antica che essa riporta in vita, diciamo ancora che ciò
che tipicizza la prova argomentativa o ragionevole nei confronti di quella razionale è il
riferimento a un uditorio:
Ogni argomentazione si sviluppa in funzione di un uditorio.
Se l’uditorio della scienza e della matematica intende essere un uditorio universale,
costituito, almeno potenzialmente, da tutti gli uomini, l’uditorio di un avvocato, di un
religioso, di un politico, di un giornalista o di un pedagogista è un uditorio limitato e
storico. Per cui, colui che, con le sue argomentazioni, vuol provocare o accrescere
l’adesione delle menti a qualche tesi, «si dovrà preoccupare di partire da premesse
condivise dai suoi uditori» (N. Bobbio). Leggiamo sempre nel Trattato
dell’argomentazione:
[L’uditorio è] l’insieme di coloro sui quali l’oratore vuole influire per mezzo della
sua argomentazione.
Ogni oratore pensa, in modo più o meno cosciente, «a coloro che egli cerca di persuadere
e che costituiscono l’uditorio al quale i suoi discorsi sono rivolti». Così, per esempio, un
capo di governo, in un discorso al parlamento, può rinunciare a priori a convincere i
membri dell’opposizione. Oppure un giornalista, quando chiede un’intervista, non pensa
all’intervistato, ma a quell’uditorio che sono i lettori del suo giornale.
Chi argomenta, dunque, si dovrà in primo luogo preoccupare di partire da premesse
condivise in linea generale dai suoi uditori. «E queste premesse possono appartenere o
alla categoria dei fatti o alla categoria dei valori (più genericamente al dominio del reale o
al dominio del preferibile). In secondo luogo dovrà procedere alla scelta dei dati che
debbono servire alla argomentazione e mediante la loro interpretazione e qualificazione al
loro adattamento agli scopi che ci si è prefissi: qui entrano in gioco fluidità,
indeterminatezza, plasticità che sono proprie delle nozioni di tutti i linguaggi non
formalizzati (e anche della maggior parte dei linguaggi scientifici) e costituiscono uno
degli elementi caratteristici del procedimento argomentativo. Infine, non potrà non dare un
certo rilievo al modo di presentare i dati prescelti, orientandosi verso quella forma di
presentazione che prevede possa maggiormente colpire gli uditori: a quest’aspetto
puramente formale ed esteriore della tecnica della argomentazione (ma tutt’altro che
irrilevante) si è arrestata la retorica letteraria, restringendo o isterilendo la grande
tradizione della retorica classica. La forma letteraria con cui vengono presentati gli
argomenti non è che un aspetto della tecnica argomentativa considerata nella sua
complessità» (N. Bobbio).
In conclusione, il Trattato dell’argomentazione è il trattato della logica delle prove non
dimostrative; è il trattato della «logica» che cerca di argomentare pro o contro l’opinabile
e il preferibile. E ciò perché, si chiede Perelman in Retorica e filosofia,
Le ragioni di una se esistono campi di sapere in cui le prove
logica non deduttive e sperimentali non possono bastare e ci
dimostrativa lasciano disorientati davanti ai problemi da
risolvere, dobbiamo forse rinunciare a trattarli
razionalmente o dobbiamo piuttosto estendere il
senso della parola «prova» in modo da inglobare tutti i procedimenti dialettici,
argomentativi, che ci permettono di stabilire la nostra convinzione?
Oltre all’opera di Perelman e di Lucie Olbrechts-Tyteca, sono da menzionare, sempre nel
campo della teoria dell’argomentazione, il lavoro di Stephen E. Toulmin Gli usi
dell’argomentazione (1958); Filosofia e argomentazione (1959) di Henry W. Johnstone; il
volume di più autori (a cura di Johnstone e Maurice Natanson) Filosofia, retorica e
argomentazione (1965); nonché il saggio dal titolo Retorica, magia e natura in Platone
pubblicato da Viano nel 1965 in «Rivista di filosofia»: si tratta di un bel saggio, tra i molti
scritti che, sotto lo stimolo della «nuova retorica», sono stati dedicati alla storia della
retorica.
La donna nella pittura dal Rinascimento a oggi

Petrus Christus (1410ca.-1475ca.), Ritratto di giovane donna. Berlino, Gemäldegalerie


Tiziano (1490-1576), Flora. Firenze, Uffizi
Bartolomeo Veneto (1502-1555), Flora. Francoforte, Städelsches Kunstinstitut
Rosalba Carriera (1675-1757), Ritratto di Felicita Sartori. Firenze, Uffizi
Edward Coley Burne-Jones (1833-1898), Studio di testa femminile. Londra, Victoria and Albert
Museum
La donna nella pittura dal Rinascimento a oggi

Francesco Hayez (1791-1882), Ritratto della contessa Luigia Douglas Scotti d’Adda. Collezione
privata

Ernst Ludwig Kirchner (1880-1938), Ritratto di Erna Schelling. Berlino, Nationalgalerie


Otto Dix (1892-1969), Sylvia von Harden. Parigi, Musée National d’Art Moderne
Egon Schiele (1890-1918), L’irosa. Vienna, Wien Museum

Pablo Picasso (1881-1973), Donna in lacrime. Londra, Tate Gallery


Pablo Picasso, Donna con pere (Fernande). Collezione privata


Sigmund Freud nel 1905

PARTE SECONDA

SIGMUND FREUD E GLI SVILUPPI DEL MOVIMENTO


PSICOANALITICO

L’interpretazione dei sogni è la via regale per la conoscenza dell’inconscio, la base più sicura delle
nostre ricerche. Quando mi si chiede come si possa diventare psicoanalista, io rispondo: attraverso lo
studio dei propri sogni.
Sigmund Freud
L’individuo è guidato dal suo desiderio di una superiorità, di una ricerca di somiglianza divina, dalla
fede nel suo potere psichico particolare.
Alfred Adler
L’inconscio collettivo è ereditario, è identico in tutti gli uomini e costituisce un sostrato psichico
comune di natura superpersonale che è presente in ciascuno di noi.
Carl Gustav Jung
LA FIGURA E IL PENSIERO DI FREUD

I
Dall’anatomia del cervello alla catarsi ipnotica

Nel volumetto Per la storia del movimento psicoanalitico (1914), Freud ha scritto:
La psicoanalisi è […] una mia creazione.
E questa scienza nuova creata da Freud (e osteggiata all’inizio dai più e oggi da non
pochi) era destinata a esercitare nel giro di pochi decenni un influsso enorme e sempre più
massiccio sull’immagine dell’uomo e delle sue attività psichiche e dei suoi prodotti
culturali. Non c’è «fatto umano» che non sia stato toccato e talvolta «sconvolto» dalla
dottrina psicoanalitica: il bambino diventa un «perverso polimorfo»; il «peccaminoso»
sesso della tradizione viene posto in primo piano per spiegare la vita normale e soprattutto
alcune malattie mentali; l’io e il suo sviluppo vengono inquadrati in una nuova teoria; le
malattie mentali vengono affrontate con tecniche terapeutiche prima impensate; fatti come
i sogni, i lapsus, le dimenticanze ecc. – generalmente visti come fatti, sì, strani, ma
irrilevanti per la comprensione dell’uomo – diventano brecce per guardare nel profondo
dell’uomo; fenomeni quali l’arte, la morale, la religione e la stessa educazione vengono
illuminati da una luce che molti ancora oggi dichiarano «sconvolgente».
Il costume esce mutato dall’incontro con la teoria psicoanalitica e gli stessi termini
fondamentali della teoria psicoanalitica (complesso edipico, rimozione, censura,
sublimazione, inconscio, super-io, transfert ecc.) sono ormai pezzi integrati nel linguaggio
ordinario e, nel bene o nel male e con più o meno cautela, più o meno a sproposito,
costituiscono attrezzi interpretativi del più ampio svolgersi della vita.

Nato nel 1856 da famiglia ebraica a Freiberg (in Moravia), Sigmund Freud si laurea in medicina a
Vienna nel 1881, sebbene non avesse «mai sentito una particolare propensione per la condizione e per il
mestiere del medico».
Studia per un po’ di tempo anatomia cerebrale. Senonché, per guadagnarsi da vivere, deve dedicarsi
allo studio delle malattie nervose. Scrive a proposito Freud ne La mia vita e la psicoanalisi (1925):

Attratto dal gran nome di Charcot, che aveva conquistato larga fama, presi la
decisione di prendere prima la docenza in malattie nervose e di trasferirmi quindi
per qualche tempo a Parigi.
Charcot era persuaso che l’isteria dipendesse da una alterazione psicologica, e che l’ammalato
potesse tornare allo stato di normalità attraverso la suggestione in stato di ipnosi, come anche che,
sempre attraverso l’ipnosi praticata su soggetti predisposti, si potesse generare l’attacco isterico.
Successivamente, nel 1889, allo scopo di perfezionare la sua tecnica ipnotica, Freud si reca a Nancy.
Qui – racconta – «fui testimone degli straordinari esperimenti di Bernheim sui malati dell’ospedale». A un
individuo sotto ipnosi, Bernheim diede il comando di aggredirlo dopo un determinato tempo e di non dire a
nessuno quanto gli era stato comandato. Il soggetto, in effetti, eseguì quel che gli era stato comandato.
Bernheim gli chiese il perché del gesto. All’inizio il soggetto rispose che non sapeva spiegare tale perché,
ma poi, sotto l’insistenza di Bernheim, affermò di averlo fatto perché gli era stato comandato poco prima.
Tornato a Vienna, Freud, nel 1894, scrive insieme a Josef Breuer una memoria su un caso di isteria
curato dallo stesso Breuer alcuni anni prima:

Come Breuer cura La paziente offriva un quadro sintomatico


un caso di isteria complesso: paralisi con contrazioni, inibizioni,
e stati di confusione. […] Sottoponendo la
malata a un profondo sonno ipnotico, [Breuer]
le faceva esprimere ciò che in quegli istanti opprimeva il suo animo […]. Per
mezzo di questo procedimento Breuer era riuscito, con un lungo e faticoso lavoro,
a liberare la malata di tutti i suoi sintomi.
Nel ’95 Breuer e Freud pubblicano, sulla base anche di altre esperienze, gli Studi sull’isterismo, dove
si sostiene che il soggetto isterico, in stato ipnotico, torna all’origine del trauma, illumina quei punti oscuri
che durante la sua vita hanno generato la malattia e che sono nascosti nel profondo, afferra così la causa
del male e, in una specie di catarsi, si libera dal disturbo. È così che ha inizio la teoria psicoanalitica che
poi Freud svilupperà in scritti come: L’interpretazione dei sogni (1900); Psicopatologia della vita quotidiana
(1901); Il motto di spirito e la sua relazione con l’inconscio (1905); Totem e tabù (1913); Al di là del
principio del piacere (1920); Psicologia delle masse e analisi dell’Io (1921); L’Io e l’Es (1923); Casi clinici
(1924); Avvenire di un’illusione (1927) ecc., oltre a quelli che via via richiameremo nel testo.
Costretto a emigrare, perché di ascendenza ebraica, dall’Austria nazista in Inghilterra, Freud muore di
cancro alla mascella nel 1939.

Dall’ipnotismo alla psicoanalisi

Negli studi sull’isteria, Freud non si era reso conto del fatto che dietro le nevrosi non
agiscono eccitamenti affettivi di natura generica, «ma solo a carattere sessuale, trattandosi
sempre di conflitti sessuali attuali o di ripercussioni di avvenimenti sessuali trascorsi».
Tuttavia, l’ipnotismo aveva fatto intravedere un mondo che così si apriva alle ricerche di
Freud. Ecco il suo interrogativo:
Quale poteva essere la ragione per la quale i pazienti avevano dimenticato tanti fatti
della loro vita interiore ed esteriore e potevano invece ricordarli, quando si
applicava loro la tecnica sopra descritta?
L’osservazione dei malati trattati dava una risposta a questo interrogativo:
Le ragioni che Tutte le cose dimenticate avevano avuto, per un
spiegano le qualche motivo, un carattere penoso per il
dimenticanze soggetto, in quanto erano state considerate
temibili, dolorose e vergognose per le aspirazioni
della sua personalità. […] E per rendere di
nuovo cosciente ciò che era stato dimenticato, era necessario vincere nel paziente
una resistenza mediante una continua opera di esortazione e di incoraggiamento.
Più tardi, come vedremo tra poco, Freud si accorgerà che tale resistenza dovrà essere vinta
diversamente (attraverso la tecnica dell’«associazione libera»), ma intanto era sorta la
teoria della rimozione. In ogni essere umano operano tendenze o forze o pulsioni che
spesso entrano in conflitto. La nevrosi si ha quando l’Io cosciente blocca l’impulso e gli
nega l’accesso «alla coscienza e alla scarica diretta»: una resistenza «rimuove» l’impulso
nella parte «inconscia» della psiche. Tuttavia, nota Freud:
Le soddisfazioni Le tendenze rimosse, divenute incoscienti,
sostitutive delle potevano ottenere una scarica e una
tendenze rimosse soddisfazione sostitutiva per vie indirette,
facendo in tal modo andare a vuoto l’intento
della rimozione. Nell’isterismo di conversione
tale cammino indiretto portava nella sfera dell’innervazione somatica e l’impulso
rimosso risorgeva in una qualsiasi parte del corpo creando i sintomi che erano,
pertanto, il risultato di un compromesso; essi costituivano, infatti, una soddisfazione
sostitutiva, anche se deformata e deviata dai suoi fini dalla resistenza dell’Io.
Fu proprio la scoperta della rimozione che costrinse Freud a modificare il procedimento
terapeutico assunto con la pratica ipnotica: nella pratica ipnotica si trattava di far
«scaricare» gli impulsi avviati su una falsa strada; ora, invece, diventava necessario
«scoprire le rimozioni ed eliminarle per mezzo di un’opera di valutazione, che accettasse o
condannasse definitivamente ciò che il processo di rimozione aveva escluso».
Sostituita la pratica terapeutica, Freud cambia anche il nome al nuovo metodo di ricerca e
di cura e comincia a usare il nome di «psicoanalisi» al posto di quello di «catarsi». E ora,
afferma Freud,
prendendo la rimozione come punto di partenza, possiamo collegare con essa tutte le
parti della teoria psicoanalitica.

Inconscio, rimozione, censura e interpretazione dei sogni

Con la scoperta delle rimozioni patogene e di altri fenomeni di cui parleremo subito in
seguito, «la psicoanalisi […] si vede costretta […] a prendere sul serio il concetto
dell’inconscio». È l’inconscio che parla e si manifesta nella nevrosi. Ma c’è di più,
giacché, per Freud,
l’inconscio è lo «psichico» stesso e la sua realtà essenziale.
In questo modo Freud rovesciava l’ormai inveterata e venerabile concezione che
identificava «cosciente» e «psichico». Ma sia la precedente pratica ipnotica, sia gli studi
sull’isterismo, sia la successiva scoperta della rimozione, sia le indagini che Freud veniva
compiendo sulla genesi dei disturbi psichici e delle altre manifestazioni «non ragionevoli»
della vita delle persone, lo convinsero sempre di più della realtà corposa e determinante
dell’inconscio.
È l’inconscio che sta dietro le nostre libere fantasie; è esso che genera le nostre
dimenticanze, che cancella dalla nostra coscienza nomi, persone, eventi. Come mai
volevamo dire una cosa e ce ne esce un’altra? Come mai intendevamo scrivere una parola
e ne scriviamo un’altra? Dove troviamo la causa di questi atti mancati, cioè dei nostri
lapsus? Non sorgono forse «dalla contrapposizione di due diverse intenzioni», di cui una,
quella inconscia appunto, è «più forte di noi»?
È in Psicopatologia della vita quotidiana e successivamente con Il motto di spirito e i suoi
rapporti con l’inconscio che Freud offre analisi brillanti (spesso, però, considerate dai
critici molto discutibili) di un fascio di fenomeni (lapsus, sbadataggini, associazioni
immediate di idee, errori di stampa, smarrimento o rottura di oggetti, motti di spirito,
amnesie ecc.) mai presi sul serio dalla «scienza esatta», e dietro ai quali Freud mostra
l’azione indefessa di contenuti che la rimozione ha respinto dalla coscienza e occultato
nell’inconscio senza però essere riuscita a renderli inattivi. E l’azione di contenuti rimossi
nell’inconscio Freud l’aveva mostrata ancora qualche anno prima nella Interpretazione dei
sogni.
L’antichità classica vedeva i sogni come profezie, la scienza dei tempi di Freud li aveva
abbandonati alle superstizioni. Ma Freud li ha voluti portare all’interno della scienza:
Il sogno diventa Sembrava assolutamente impossibile che
finalmente oggetto qualcuno che avesse compiuto seri lavori
di indagine scientifici, potesse rivelarsi poi un «interprete di
scientifica sogni». Non tenendo però conto di una tale
condanna del sogno; considerandolo invece come
un sintomo nevrotico incompreso, alla stessa
guisa di un’idea delirante o ossessiva; prescindendo dal suo contenuto apparente e,
infine, facendo oggetto della libera associazione ciascuno dei suoi diversi elementi,
si giunse a un risultato del tutto diverso.
Il risultato fu che nel sogno c’è un «contenuto manifesto» (quello che si ricorda e si
racconta, quando ci si sveglia) e un «contenuto latente» (quel senso del sogno che
l’individuo non sa riconoscere: «ma dove va la testa!»). Ebbene, proprio questo contenuto
latente «contiene il vero significato del sogno stesso, mentre il contenuto manifesto non è
altro che una maschera, una facciata».
Lo psicoanalista è anche, e spesso soprattutto, un «interprete dei sogni»; deve rifare il
cammino verso il contenuto latente del sogno, contenuto «sempre pieno di significato» a
partire dal contenuto manifesto «spesso del tutto insensato». La tecnica analitica, per
mezzo di libere associazioni, «permette di individuare ciò che è nascosto». E nelle radici
nascoste dei sogni noi troviamo impulsi rimossi che il sogno, data la diminuita vigilanza
esercitata dall’io cosciente durante il sonno, cerca di soddisfare: il sogno costituisce la
realizzazione di un desiderio, di un desiderio che la coscienza reputa criticabile o magari
vergognoso e che «è proclive a ripudiare con stupore o con indignazione». Tuttavia, non
c’è da credere che l’azione rimovente dell’io cessi del tutto durante il sonno: «una parte di
essa rimane attiva, come censura onirica, e proibisce al desiderio incosciente di
manifestarsi nella forma che gli è propria». A motivo della severità della censura onirica,
«i contenuti onirici latenti devono […] sottoporsi a modifiche e ad attenuazioni, che
rendono irriconoscibile il significato proibito del sogno».
Così si spiegano quelle deformazioni oniriche, alle quali i sogni devono le loro tipiche
caratteristiche di strambezza. In conclusione:
Il sogno è la realizzazione (mascherata) di un desiderio (rimosso).
E da quanto detto comprendiamo perché, secondo Freud,
Interpretare i sogni l’interpretazione dei sogni è […] la via regale per
per conoscere la conoscenza dell’inconscio, la base più sicura
l’inconscio delle nostre ricerche […]. Quando mi si chiede
come si possa diventare psicoanalista, io
rispondo: attraverso lo studio dei propri sogni.

Il concetto di libido e la sessualità infantile

Il trattamento delle nevrosi, la psicopatologia della vita quotidiana, l’indagine sui motti di
spirito, l’interpretazione dei sogni portano Freud nel mondo dell’inconscio. Ciò che passa
nella storia di un individuo, sia che egli ne sia stato cosciente, sia che nulla abbia
sospettato, non scompare. Come nella storia della terra le stratificazioni precedenti
sprofondano ma non scompaiono; come gli strati successivi di una città plurisecolare,
benché spesso non visibili, tuttavia esistono; così anche la psiche è stratificata. E il
ricordare, lo sbagliare, il dimenticarsi, i sogni, le nevrosi trovano la loro spiegazione
causale in pulsioni respinte e in desideri rimossi nell’inconscio, ma non cancellati.
Ma ecco un problema inevitabile: perché certe pulsioni vengono respinte, perché certi
desideri e certi ricordi sono a disposizione della coscienza, mentre altri paiono essere,
almeno in apparenza, sottratti a essa e rimossi nell’inconscio? La ragione di ciò – risponde
Freud – è da trovare nel fatto che si tratta di pulsioni e di desideri in palese contrasto con i
valori e le esigenze etiche proclamate e ritenute valide dall’individuo cosciente. Per cui
quando c’è incompatibilità tra l’io cosciente (i suoi valori, i suoi ideali, i suoi punti di
riferimento ecc.) e certe pulsioni e certi desideri, allora entra in azione una sorta di
«repressione» che strappa queste cose «vergognose» e «indicibili» alla coscienza e le
trascina nell’inconscio, da dove una continua «censura» cerca di non farli riaffiorare alla
vita cosciente.
Rimozione e censura entrano in azione perché «devono» agire su desideri e ricordi di
natura principalmente e ampiamente sessuale, e quindi su cose «vergognose», da non dire
e cancellare. Freud riconduce la vita dell’uomo a una originaria libido, cioè a una energia
connessa principalmente al desiderio sessuale:
Definizione di libido Analoga alla fame in generale, la libido designa
la forza con la quale si manifesta l’istinto
sessuale, come la fame designa la forza con la
quale si manifesta l’istinto di assorbimento del nutrimento.
Ma mentre desideri come la fame o la sete non sono «peccaminosi» e non vengono
rimossi, le pulsioni sessuali vengono rimosse per poi riapparire nei sogni e nelle nevrosi:
La prima scoperta alla quale ci conduce la psicoanalisi è che, regolarmente, i
sintomi morbosi sono legati alla vita amorosa del malato; questa scoperta […] ci
obbliga a considerare i disturbi della vita sessuale come una delle cause più
importanti della malattia.
I malati non si accorgono di questo, ma ciò accade perché «essi portano un pesante
mantello di menzogne per coprirsi, come se ci fosse cattivo tempo nel mondo della
sessualità».
Sessualità repressa che esplode in malattia o ritorna in parecchi sogni. E proprio
analizzando questi sogni, Freud scopre la sessualità infantile. Sono i sogni degli adulti che,
infatti, rimandano di frequente a desideri inesauditi, desideri inappagati della vita
«sessuale infantile».
Il bambino non è privo di istinti, e tanto meno privo di pulsioni erotiche. La funzione
sessuale è presente fin dall’inizio. Il fanciullo, dice Freud, presenta dall’età più tenera le
manifestazioni di questo istinto, «egli ha con sé queste tendenze venendo al mondo, ed è
da questi primi germi che nasce, nel corso di un’evoluzione piena di vicissitudini e con
numerose tappe, la sessualità detta normale dell’adulto».
Dapprima, la sessualità infantile è indipendente dalla funzione riproduttiva, al servizio
della quale si metterà più tardi. Essa serve, piuttosto, a procurare molti tipi di sensazioni
piacevoli:
La funzione della La principale fonte del piacere sessuale infantile
sessualità infantile è l’eccitazione di certe parti del corpo
particolarmente sensibili, oltre che degli organi
sessuali: la bocca, l’ano, l’uretra, così come
l’epidermide e altre superfici sensibili.
La sessualità infantile è quindi «auto-erotismo» che si manifesta come «conquista del
piacere» che trova in «zone erogene» del corpo l’oggetto stesso del piacere. Un primo
grado di organizzazione degli istinti sessuali infantili «compare sotto il predominio delle
componenti orali», nel senso che la suzione o poppata dei neonati è un buon esempio di
soddisfazione auto-erotica procurata da una zona erogena (è questa la fase orale e copre il
primo anno di vita); segue poi una fase anale, dominata dal piacere di soddisfare lo
stimolo delle evacuazioni (la fase anale copre il periodo del secondo e del terzo anno di
vita); solo la terza fase (fase fallica: quattro-cinque anni) porta con sé il primato dei
genitali, nel senso che il bambino cerca godimento nel toccarsi i genitali, e prova un nuovo
e particolare interesse per i genitori.
Il bambino scopre il pene e a questa scoperta si accompagna la paura di perderlo
(complesso di castrazione). E le bambine provano quella che Freud chiama «invidia del
pene». (Questi «complessi» possono riaffacciarsi nell’età adulta, ed essere causa di
nevrosi.) E a questo punto appare un processo cui spetta, secondo Freud, una parte
importantissima nella vita psichica. Si tratta della crisi edipica.

Il complesso di Edipo

Ecco come Freud chiarifica questo punto centrale della sua teoria:
Il bimbo concentra sulla persona della madre i suoi desideri sessuali e concepisce
impulsi ostili contro il padre, considerato come un rivale. Questa è anche, mutatis
mutandis, l’attitudine della bambina.
I sentimenti che si formano durante questi rapporti non sono solo positivi, cioè affabili e
pieni di tenerezza, ma anche negativi, ossia ostili. Si forma un «complesso» (vale a dire un
insieme di idee e di ricordi legati a sentimenti molto intensi) che è certamente condannato
a una rapida rimozione. Ma intanto, fa presente Freud,
Il complesso di nel fondo dell’inconscio, [il complesso] esercita
Edipo come ancora una attività importante e duratura.
complesso centrale Possiamo supporre che esso costituisca, con le
sue implicazioni, il complesso centrale di ogni
di ogni nevrosi nevrosi, e noi ci aspettiamo di trovarlo non meno
attivo negli altri campi della vita psichica.
Nella tragedia greca, Edipo, figlio del re di Tebe,
uccide suo padre e prende in moglie la propria madre. Questo mito, dice Freud, «è una
manifestazione poco modificata del desiderio infantile contro il quale si alza più tardi, per
scacciarlo, la barriera dell’incesto». E in fondo al dramma di Amleto, di Shakespeare, «si
ritrova la stessa idea di un complesso incestuoso, ma meglio mascherato».
Nell’impossibilità di soddisfare il suo desiderio, il bimbo si assoggetta a quel competitore,
il genitore di cui è geloso, e costui diviene il suo padrone interiore.
E con l’interiorizzazione di un censore interno la crisi edipica passa, ma intanto si è
instaurato il Super-Ego, e con esso la morale. Allo stadio fallico segue un periodo di
latenza «durante il quale sorgono le formazioni reattive della morale, del pudore e della
ripugnanza». Tale periodo di latenza dura fino alla pubertà, quando entrano in funzione le
ghiandole sessuali e l’attrazione verso l’altro sesso porta all’unione sessuale. Siamo così
nel periodo propriamente genitale. Da tutte queste considerazioni, Freud desume:
Una più ampia idea in primo luogo [abbiamo] sciolto la sessualità
di sessualità dai suoi legami troppo stretti con i genitali,
definendola come una funzione somatica più
vasta che tende, anzitutto, verso il piacere, e che
solo secondariamente entra al servizio della riproduzione. In secondo luogo,
abbiamo incluso fra gli istinti sessuali anche tutti gli impulsi solamente affettuosi,
amichevoli, per i quali adoperiamo, nel linguaggio corrente, la parola «amore».
Questo ampliamento del concetto di sessualità (che poi è una «ricostituzione» dello stesso
concetto), rendendo la sessualità non completamente dipendente dagli organi genitali,
permette la considerazione di quelle attività sessuali non genitali dei bambini com’anche
degli adulti (si pensi all’omosessualità). Attività non genitali, quindi perverse, non
indirizzate alla generazione. È qui che si comprende il significato (che non è un significato
morale) dell’espressione di Freud per cui il bambino è «un perverso polimorfo».

Lo sviluppo delle tecniche terapeutiche e la teoria del transfert

Le teorie della resistenza e della rimozione nell’inconscio, del significato eziologico


della vita sessuale e della importanza delle esperienze infantili, sono i principali
elementi dell’edificio teorico della psicoanalisi.
In queste parole di Freud tornano gli elementi esposti nelle pagine precedenti. Venendo
ora ad altri importanti nuclei della stessa teoria psicoanalitica, vediamo che, per quanto
riguarda la tecnica terapeutica, Freud fu costretto dalle esperienze, che venivano via via
accumulandosi nel corso delle sue indagini, in primo luogo a scartare le tecniche ipnotiche
e poi anche a superare quell’azione «insistente e rassicurante» esercitata sul malato perché
vincesse la resistenza. La tecnica che a Freud risultò maggiormente adeguata fu quella
dell’associazione libera delle idee: l’analista fa sdraiare il soggetto su di un divano, in un
ambiente dove non ci sia una luce troppo intensa, in modo da porre il paziente in una
situazione di rilassamento; l’analista si pone dietro al paziente e lo invita «a manifestare
tutto quello che giunge al suo pensiero, quando egli rinunci a guidare il pensiero
intenzionalmente». Questa tecnica non esercita costrizioni sul malato ed è una via efficace
per giungere alla scoperta della resistenza:
La scoperta della resistenza è il primo passo verso un suo superamento.
Ovviamente, perché l’analisi proceda nel giusto senso, occorre che l’analista abbia
sviluppato «un’arte dell’interpretazione, il cui fruttuoso impiego, per aver successo,
richiede tatto ed esperienza».
L’analista non costringe il paziente, lo guida, l’invita a lasciare via libera alle idee che gli
vengono in mente; suggerisce talvolta la parola, cercando di vedere quali altre idee e
sentimenti essa susciti nel paziente. E tutto viene registrato e scritto dall’analista: non solo
ciò che il paziente dice, ma anche le sue esitazioni, e soprattutto le sue resistenze.
L’analista lavora dunque sulle libere associazioni del paziente.
Ma nella pratica analitica un ruolo primario lo ha l’interpretazione dei sogni, i quali hanno
un legame profondo con desideri repressi nell’inconscio, e quasi sempre questi desideri
sono di natura sessuale. L’analisi «anche approfitta del fatto che al sogno sono accessibili
gli elementi dimenticati della vita infantile, per vincere, a mezzo della sua interpretazione,
l’amnesia relativa ai fatti dell’infanzia». Il sogno viene in tal modo a esplicare una parte
della funzione che prima si affidava all’ipnotismo. Abbiamo detto che quasi sempre il
desiderio (che il sogno «rielabora» e «sostituisce con qualcos’altro») è di origine sessuale:
quasi sempre, e non sempre:
Non tutti i sogni Non ho mai affermato ciò che mi si attribuisce
hanno un contenuto frequentemente, e cioè che l’interpretazione
sessuale onirica dimostra che tutti i sogni possiedono un
contenuto sessuale […]. È facile osservare che la
fame, la sete e altre necessità creano sogni di
soddisfazione, allo stesso modo di qualsiasi impulso rimosso sessuale o infantile.
Proprio i sogni dei bambini provano questo e, «sotto la spinta di impellenti necessità,
anche gli adulti possono produrre simili sogni di tipo infantile». E, oltre la libera
associazione delle idee, oltre ai sogni, l’analista è un interprete degli atti mancati, dei
lapsus, delle dimenticanze, dei ritardi, dei sogni a occhi aperti, delle associazioni
immediate, insomma di tutto ciò che costituisce la «psicopatologia della vita quotidiana».
È attraverso queste brecce e per questi sentieri che l’analista intende riportare il paziente al
suo inconscio, a quegli ingorghi che hanno causato la malattia e che pongono il soggetto
in stato talvolta di insopportabile sofferenza. Solo scoprendo la causa della malattia si
possono sciogliere i nodi; solo sapendo cos’è avvenuto ci si può liberare dalla sofferenza.
Questa è la ragione per cui
dov’era l’Es, deve diventare l’Io.
La via della guarigione, precisa Freud, sta nella trasformazione dell’inconscio in conscio,
anche se talvolta può capitare che il medico «prende le difese della malattia da lui
combattuta». Sono questi i casi «nei quali il medico stesso deve ammettere che lo sfociare
di un conflitto nella nevrosi rappresenta la soluzione più innocua e socialmente più
tollerabile».
Fin qui, dunque, le tecniche terapeutiche elaborate e usate da Freud, il quale non tardò ad
accorgersi che
in ogni trattamento analitico si stabilisce, senza alcun intervento del medico,
un’intensa relazione sentimentale del paziente con la persona dell’analista.
È questo l’importante fenomeno che Freud chiamò «transfert», traslazione:
Il transfert prende subito il posto nel paziente del suo desiderio di cura e, finché si
limita a essere affettuoso e misurato, fornisce la base per l’influenza del medico,
costituendo il vero sprone affettivo per il comune lavoro analitico.
Ma esso può manifestarsi anche in una tale ostilità da «formare lo strumento principale
della resistenza» e da mettere in pericolo lo stesso risultato del trattamento. In ogni caso,
senza transfert, nessuna analisi è possibile.
Il transfert è un fenomeno umano generale. L’analista rileva il transfert e lo isola:
Il modo in cui il Il transfert viene reso cosciente al malato
transfert viene dall’analista, e viene risolto quando il paziente
evidenziato e risolto acquista la convinzione che, nel suo
comportamento determinato dal transfert, egli
rivive relazioni che provengono dalle sue più
antiche cariche affettive dirette verso un oggetto e appartenenti al periodo rimosso
della sua infanzia.
È attraverso tale lavoro che il transfert diviene il migliore strumento della cura analitica,
dopo essere stato l’arma più importante della «resistenza»:
l’utilizzazione e lo sfruttamento [del transfert] costituiscono, in ogni modo, la parte
più difficile e importante della tecnica analitica.

La struttura dell’apparato psichico: Es, Ego, Super-Ego

Da quanto si è detto finora, risulta ormai facile estrarre la teoria dell’apparato psichico
proposta da Freud. L’apparato psichico è composto dall’Es (o Id), dall’Ego e dal Super-
Ego.
L’Es (in tedesco «Es» è il pronome neutro dimostrativo ed equivale all’«Id» latino; Freud
prese questo termine da Georg Groddeck) è l’insieme degli impulsi inconsci della libido; è
la sorgente dell’energia biologico-sessuale; è l’inconscio amorale ed egoistico.
L’Ego è «la facciata» dell’Es; è il rappresentante conscio dell’Es; la punta consapevole di
quell’iceberg che è appunto l’Es.
Il Super-Ego si forma verso il quinto anno di età e differenzia (per grado e non per natura)
l’uomo dall’animale; è la sede della coscienza morale e del senso di colpa. Il Super-Ego
nasce come interiorizzazione dell’autorità familiare e si sviluppa successivamente come
interiorizzazione di altre autorità, come interiorizzazione di ideali, di valori, modi di
comportamento proposti dalla società attraverso la sostituzione dell’autorità dei genitori
con quella di «educatori, insegnanti e modelli ideali». Il Super-Ego «paterno» diventa un
Super-Ego «sociale».
L’Ego, dunque, si trova a commerciare tra l’Es e il Super-Ego, tra le pulsioni dell’Es,
aggressive ed egoiste – che tendono a una soddisfazione irrefrenabile e totale – e le
proibizioni del Super-Ego, che impone tutte le restrizioni e le limitazioni della morale e
della «civiltà». In altri termini, l’individuo è sotto la spinta originaria di una energia
biologico-sessuale. Ma queste forze istintive sono regolate da due principi: quello del
piacere e quello di realtà. Per il principio del piacere, la libido tende a trovare un
soddisfacimento immediato e totale. Su questa strada, però, essa trova quel censore che è
il principio di realtà che costringe le pulsioni egoistiche, aggressive e autodistruttive a
incanalarsi per altre vie, le vie della produzione artistica, della scienza, e così via: le vie
della civiltà.
Tuttavia, davanti alle repressioni del principio di realtà, l’istinto non desiste e non si dà
affatto per vinto, e cerca altri sbocchi per il suo soddisfacimento. E allora, se non riesce a
«sublimarsi» in opere d’arte, risultati scientifici, realizzazioni tecnologiche, educative o
umanitarie, e se, d’altra parte, gli ostacoli che incontra sono massicci e impermeabili a
qualsiasi deviazione sostitutiva, la spinta dell’istinto si trasforma in nevrosi.

La lotta tra Eros e Thanatos e il disagio della civiltà

A dire il vero, la questione dell’istinto, delle sue forme e dei principi che lo strutturano, ha
costituito un’autentica preoccupazione per Freud, il quale alla fine giunse a parlare di un
istinto di vita o Eros e di un istinto di morte o Thanatos. L’istinto di vita si esprime
nell’amore, nella creatività, nella costruttività. L’istinto di morte nell’odio e nella
distruzione. Quest’istinto è potente, l’uomo è aggressivo. «Homo homini lupus: chi ha il
coraggio di contestare quest’affermazione dopo tutte le esperienze della vita e della
storia?», si chiede Freud ne Il disagio della civiltà (1929). C’è nell’uomo una «crudele
aggressività» che rivela in lui «una bestia selvaggia, alla quale è estraneo il rispetto della
propria specie»:
La malevolenza Per via di questa ostilità primaria degli uomini
degli uomini e il suo tra loro, la società incivilita è continuamente
peso sulla vita minacciata di distruzione […] e per ciascuno di
noi viene il momento di lasciar cadere come
illusioni le speranze che ripone in gioventù nei
propri simili, e di sperimentare quanto la vita gli è resa aspra e gravosa dalla loro
malevolenza.
Per questo, la condanna di Freud non è la condanna della civiltà tout-court, ma la
condanna delle repressioni inutili ed eccessive, fonti di angoscia e sofferenza. È proprio
per alleviare queste sofferenze che Freud offre, con la sua genealogia della civiltà, una
maggiore consapevolezza demistificatrice di ideali e di valori perché questi, seppur
necessari per dominare l’istinto di morte, non si trasformino in strumenti di tormento per
la vita dei singoli. L’uomo rinuncia a molta sua felicità per rendere possibile una vita
associata (la civiltà) non autodistruttiva:
Il Super-Ego è l’erede del complesso di Edipo e il rappresentante delle aspirazioni
etiche dell’uomo.
Il Super-Ego costrinse Edipo ad accecarsi. Il lavoro di Freud tende proprio a questo: non a
negare la civiltà, ma a non permettere al Super-Ego di accecare il nuovo Edipo, cioè di
fare impazzire l’uomo e rendergli la vita insopportabile, disumana. E se da una parte ci
sono malattie (sopportabili) con le quali l’uomo deve imparare a coesistere, dall’altra
l’uomo civilizzato ha venduto la possibilità della felicità «per un po’ di sicurezza» e
l’importante è che la vita civilizzata in costante sviluppo sia sopportabile. Scrive Freud
alla fine de Il disagio della civiltà:
Il pericolo delle Il problema fondamentale del destino della specie
previsioni umana a me sembra questo: se, e fino a che
autodistruttrici punto, l’evoluzione civile degli uomini riuscirà a
dominare i turbamenti della vita collettiva
provocati dalla loro pulsione aggressiva e
autodistruttrice. […] Gli uomini adesso hanno esteso talmente il proprio potere sulle
forze naturali, che giovandosi di esse sarebbe facile sterminarsi a vicenda, fino
all’ultimo uomo. Lo sanno, donde buona parte della loro presente inquietudine,
infelicità, apprensione. E ora c’è da aspettarsi che l’altra delle due «potenze celesti»,
l’Eros eterno, farà uno sforzo per affermarsi nella lotta con il suo avversario
altrettanto immortale. Ma chi può prevedere se avrà successo e quale sarà l’esito?
E ancora un’ultima osservazione. Freud riconosce «grandi coincidenze» delle proprie
dottrine psicoanalitiche con la filosofia di Schopenhauer, «il quale non solo riconobbe il
primato dell’affettività e la straordinaria importanza della sessualità, ma anche il
meccanismo di rimozione». Tuttavia, dice Freud, sono coincidenze e non influssi. Freud
confessa di aver letto Schopenhauer solo «in un’epoca già molto avanzata della [sua]
vita». Inoltre, confessa sempre il padre della psicoanalisi,«per molto tempo ho evitato di
leggere Nietzsche, altro filosofo i cui presentimenti e le cui intuizioni coincidono
frequentemente, in modo sorprendente, con i laboriosi risultati della psicoanalisi, poiché
più che interessarmi la priorità, mi importava conservarmi libero da ogni influenza».
Per quanto, infine, concerne il marxismo, Freud non si mostra affatto sicuro che tale
dottrina abbia trovato «la via per liberarci dal male». Difatti,
con l’abolizione della proprietà privata si toglie al desiderio umano di aggressione
uno dei suoi strumenti, certamente uno strumento forte, ma altrettanto certamente
non il più forte.
LA RIBELLIONE A FREUD E LA PSICOANALISI
POSTFREUDIANA

II
La psicologia individuale di Alfred Adler

Nel 1910 nacque la Società internazionale di psicoanalisi, il cui primo presidente fu Carl
Gustav Jung. Nel frattempo la psicoanalisi trovava nuovi campi di feconde applicazioni.
Theodor Reik e l’etnologo Géza Róheim sviluppavano le tesi contenute nel lavoro di
Freud Totem e tabù. Otto Rank faceva della mitologia l’oggetto dei suoi studi. Il pastore
protestante Oskar Pfister, di Zurigo, il quale – dice Freud – «trovò conciliabile la
psicoanalisi con una forma sublimata di religiosità», applicò la psicoanalisi alla pedagogia.
I successi, dunque, non mancavano. Ma, insieme a questi, arrivarono anche le prime
clamorose scissioni che dovevano rompere in maniera decisiva l’uniformità della
prospettiva freudiana.
L’artefice della prima scissione, nel 1911, fu Alfred Adler (1870-1937), il fondatore della
«Psicologia individuale», autore di opere quali: Il temperamento nervoso (1912);
Conoscenza dell’uomo (1917), Prassi e teoria della psicologia individuale (1920).
Già discepolo di Freud, Adler, a partire dallo stesso materiale su cui si basava la teoria
freudiana e affrontando gli stessi problemi di Freud, costruisce un sistema teorico che nega
punto per punto quello di Freud, tanto che Freud dirà ironicamente che «la dottrina di
Adler è, pertanto, caratterizzata non tanto da ciò che afferma, quanto da ciò che nega». La
dottrina di Freud vede tutta l’attività dell’uomo in funzione del suo passato; la dottrina di
Adler in funzione del suo avvenire (Giorgio Zunini).
Adler sostiene che non sono il principio di piacere e quello di realtà a guidare i
comportamenti dell’individuo, quanto piuttosto la sua «volontà di potenza». In ogni fase
del suo sviluppo, afferma Adler,
La volontà di potenza: principio l’individuo è guidato
fondamentale della psicologia
individuale
dal suo desiderio
di una superiorità, di una ricerca di somiglianza
divina, dalla fede nel suo potere psichico
particolare.
La dinamica dello sviluppo dell’individuo vive nel dissidio tra il «complesso di
inferiorità», che si scatena davanti ai compiti da risolvere e di fronte alla competizione con
gli altri, e la volontà di affermare la propria potenza. Nello sforzo per la propria
«affermazione virile» e per superare il «complesso di inferiorità» accadono, afferma
Adler, processi di «compensazione»: quando qualche attività psichica è inferiore alle
attese del compito da affrontare, allora subentra – come nei processi biologici – una
«compensazione» da parte di qualche altra attività che è superiore rispetto al compito.
È con questo armamentario concettuale che Adler interpreta diversamente il «materiale»
freudiano, e diversamente tenta di risolvere i problemi con i quali si era cimentata la
psicoanalisi. Così, nei sogni non è l’inconscio che parla; essi piuttosto esprimono il
progetto di vita dell’individuo, progetto che sarebbe palese anche dentro agli atti mancati e
che, secondo Adler, si manifesterebbe come «piano di vita» già verso i quattro o cinque
anni.
Pure nelle pulsioni sessuali Adler vede la volontà di potenza in azione per dominare gli
altri. E la nevrosi è il sentimento di inferiorità dell’individuo che, di fronte alle difficoltà,
ripiega su se stesso ed esige dagli altri comprensione costringendoli a porre su di sé le
proprie attenzioni.
L’idea centrale del sistema di Adler è dunque la «volontà di potenza». Il riferimento
storico più immediato è il pensiero di Nietzsche, ma anche di Schopenhauer. Adler ha
applicato le sue teorie all’arte e all’educazione. A Vienna sorsero cliniche per
l’orientamento sociale e asili per l’infanzia, ispirati alle idee di Adler.
Karl Popper lavorò in una di queste istituzioni. E, un giorno, nel 1919, riferì ad Adler di
un caso che non gli pareva particolarmente adleriano. Adler però – narra Popper – «senza
alcuna difficoltà lo analizzò nei termini della sua teoria dei sentimenti di inferiorità, pur
non avendo neppur visto il bambino. Un po’ sconcertato, gli chiesi come potesse essere
così sicuro. “A causa della mia esperienza di mille casi”, egli rispose; al che io – dice
ancora Popper – non potei evitare di soggiungere: “esperienza che ora è diventata di
milleuno casi”». Questo per ricordare che qui trova la sua origine il criterio di
falsificabilità popperiano.
Carl Gustav Jung

La psicologia analitica di Cari Gustav Jung

Già noto per i suoi studi di psichiatria, lo svizzero Carl Gustav Jung (1875-1961) si
avvicinò a Freud, ma nel 1913, due anni dopo la «secessione» di Adler, anche Jung si
allontanò da Freud, e propose un influente sistema di idee psicologiche che egli chiamò
«psicologia dei complessi» o «psicologia analitica».
Fu Jung a introdurre il termine «complesso», usandolo nei suoi Studi di associazione
diagnostica (1906). Per «complesso» Jung intende «gruppi di contenuti psichici che,
svincolatisi dalla coscienza, passano nell’inconscio, dove continuano una esistenza
relativamente autonoma influendo sulla condotta» (G. Zunini).
E questo influsso, se può essere negativo, può anche assumere valenza positiva quando
diventa la ragione di nuove possibilità di creazione e di successo. Jung usò la nozione di
complesso nelle diagnostica tramite associazioni. Egli proponeva diverse parole, una dopo
l’altra, a un soggetto, il quale doveva rispondere immediatamente con la prima parola che
gli veniva in mente. Jung mise così in evidenza che il tempo di reazione, cioè il tempo che
trascorre tra la presentazione della parola e la risposta del soggetto, muta da parola a
parola e di fronte alle differenti parole è anche diverso l’atteggiamento dell’individuo.
Talvolta la reazione è molto esitante, oppure affrettata: siamo di fronte a reazioni che sono
indice di complessi, di cui il soggetto non è consapevole.
Per questa via, ma anche dal contenuto delle reazioni verbali, oltre che attraverso i sogni,
Jung penetra nell’inconscio. E ulteriori indagini lo portano a quella che è forse la sua
scoperta fondamentale, cioè all’inconscio collettivo. Per Jung la struttura della psiche
comprende la «coscienza» e un «inconscio personale» dove è conservato e si agita ciò che
la coscienza vuol reprimere, rimuovere, cancellare. Ma, oltre alla coscienza e all’inconscio
personale, Jung individua una zona della psiche che egli chiama «inconscio collettivo».
L’inconscio personale consiste fondamentalmente di complessi, mentre l’inconscio
collettivo è fatto di archetipi. Scrive Jung:
Gli archetipi come Gli istinti [tendenze innate, non apprese]
schemi di formano delle analogie molto vicine agli
comportamento archetipi. Così vicine, che c’è motivo di supporre
istintivo che gli archetipi siano le immagini inconsce degli
istinti stessi; in altre parole, essi sono schemi di
comportamento istintivo. L’ipotesi dell’Inconscio
Collettivo non è quindi più azzardata dell’ammettere che ci siano degli istinti.

L’inconscio collettivo è ereditario, è identico in tutti gli uomini e costituisce un


sostrato psichico comune di natura superpersonale che è presente in ciascuno di noi.
Gli archetipi sono schemi di reazioni istintive, di reazioni psichiche obbligate che si
ritrovano nei sogni, ma anche nelle mitologie, nelle tradizioni religiose e riguardano
caratteristiche della natura umana come la nascita, la morte, le immagini paterna e
materna, i rapporti fra i due sessi.
Un’altra tematica di rilievo nel pensiero di Jung è la sua teoria dei «tipi psicologici». È
dall’analisi della controversia tra Freud e Adler che Jung riesce a delineare la tipologia
dell’introverso e dell’estroverso. Freud sarebbe un estroverso, Adler un introverso. Per
l’estroverso gli eventi esterni a se stesso sono a livello conscio della massima importanza.
Per «compensazione», al livello inconscio, l’attività psichica dell’estroverso si concentra
sull’io.
Al contrario, quel che conta per l’introverso è la risposta soggettiva dell’individuo agli
eventi e circostanze esterne, mentre al livello inconscio l’introverso è spinto, con sensi di
paura, verso il mondo esterno. E benché un «tipo puro» non esista, tuttavia Jung ammette
l’estrema utilità descrittiva della distinzione tra «introverso» ed «estroverso»:
Ogni individuo possiede entrambi i meccanismi – l’introversione e l’estroversione – e
soltanto la predominanza relativa dell’uno o dell’altro determina il tipo.
Tipi psicologici è del 1921. A partire da questo periodo Jung dedica la sua maggiore
attenzione allo studio della magia, delle diverse religioni e delle culture orientali
(Psicologia e religione, 1940; Psicologia e alchimia, 1944; L’io e l’inconscio, 1945).
Guardando al suo lavoro, nel contesto della nostra civiltà, Jung ha detto:
Non sono spronato da un eccessivo ottimismo e neppure sono amante degli ideali
elevati, ma mi interesso semplicemente del destino dell’essere umano come individuo
– quell’unità infinitesimale da cui dipende un mondo, e in cui, se leggiamo
correttamente il significato del messaggio cristiano, anche Dio ricerca il suo fine.
Celebre e fonte di lunghe controversie è rimasta la risposta che nel 1959 Jung dette a un
intervistatore della BBC che gli chiese: «Credete in Dio?». All’interrogativo Jung replicò:
Non ho bisogno di credere in Dio. Lo conosco.
Freud, dinanzi al sistema di Jung, asserì: «Ciò di cui gli svizzeri andavano così fieri, altro
non era che la modificazione teorica della psicoanalisi ottenuta respingendo il fattore della
sessualità. Confesso che sin dall’inizio intesi questo “progresso” come un adeguamento
eccessivo alle esigenze dell’attualità». Da parte sua, Jung, riassumendo le varie forze e
tendenze psichiche sotto il concetto di energia, non volle affatto negare l’importanza della
sessualità nella vita psichica, «benché Freud sostenga ostinatamente che io la neghi». Dice
Jung:
La sessualità è solo Quel che io cerco è di stabilire dei confini alla
uno degli istinti sfrenata terminologia sul sesso che vizia tutte le
biologici discussioni sulla psiche umana, e mettere la
sessualità stessa nel suo posto più adatto. Il senso
comune tornerà sempre al fatto che la sessualità
è soltanto uno degli istinti biologici, soltanto una delle funzioni psicofisiologiche,
benché senza dubbio molto importante e di grandissima portata.

Wilhelm Reich e la sintesi tra marxismo e freudismo

Una sintesi tra marxismo e freudismo ha tentato Wilhelm Reich (1897-1957). Reich si laurea in
medicina ed entra nella Società di psicoanalisi. I rapporti con Freud, però, si guastano ben presto, forse
anche per il forte interesse che Reich mostrava per il marxismo, tanto che si iscrisse al partito comunista
tedesco. Nel 1931 Reich, insieme ad altri amici, fonda il gruppo Sexpol, destinato alla consulenza medica
a favore del movimento operaio, consulenza riguardante questioni sessuali e di igiene mentale. Tipo
ipercritico, uscirà in seguito sia dal partito sia dalla Società di psicoanalisi. Dopo l’avvento di Hitler al
potere, si rifugia in America. Qui l’attende un triste destino: viene arrestato a motivo delle sue teorie e
muore in prigione nel 1957. I suoi libri furono bruciati.

Quel che, sostanzialmente, differenzia Reich da Freud è una diversa concezione della
natura umana. Freud aveva insistito sull’istinto di Thanatos, cioè sull’istinto di morte,
sulle pulsioni aggressive negative, sulle forze psichiche distruttive e perverse.
Per Reich, tali idee sono teorie semplicemente metafisiche. L’aggressività distruttrice non
è, secondo lui, parte integrante della «natura umana», quanto piuttosto l’effetto palese di
una repressione sociale che inibisce gli istinti sessuali. Questi, nella nostra società, non
riescono a esprimersi naturalmente. Da qui le perversioni, la pornografia, l’aggressività
contro se stessi e gli altri.
L’oppressione degli istinti sessuali come, d’altronde, ogni altro tipo di oppressione,
sarebbe, secondo Reich, di natura politica. Di conseguenza l’uomo liberato dalle catene
che l’opprimono potrà solo essere l’uomo di un’«altra» società. E allora, quanto urge è un
lavoro di consapevolizzazione delle masse perché rovescino l’attuale società. Qui trova
appunto la sua ragione l’accoppiamento che Reich opera tra marxismo e freudismo.

La psicoanalisi dell’infanzia in Anna Freud e Melanie Klein

Freud non trattò psicoanaliticamente se non un solo bambino. È stata sua figlia Anna
Freud (1895-1982) a occuparsi dei bambini al di sopra dei tre anni. Anna Freud riconosce
che i fattori inconsci e le pulsioni istintive, particolarmente quelle sessuali, svolgono un
grosso ruolo nella vita del bambino. Ma afferma che anche i fattori ambientali, come il
rapporto del bambino con i genitori, non sono indifferenti. Il libro più noto di Anna Freud
è L’Ego e i meccanismi di difesa (1937), dove si sostiene che l’Ego si difende dagli
impulsi repressi nell’inconscio attraverso cinque vie: la fuga nella fantasia, la loro
negazione nelle parole e nei fatti, la restrizione dell’Ego, l’identificazione con
l’aggressore, determinate forme di altruismo.
Anna Freud ha studiato i bambini sopra i tre anni. Melanie Klein (1882-1960), le cui
concezioni hanno esercitato un influsso notevole sugli psicoanalisti inglesi, ha studiato
invece i bambini sotto i tre anni. Indagando sulla loro attività fantastica, così come questa
si esprime nei giochi e nella mimica, la Klein ha stabilito che la crisi edipica entra in
azione molto prima di quanto pensava Freud. E ancora: il primo oggetto del mondo del
bambino è il seno materno. Il bisogno di poppare è accompagnato dalla paura che esso
non possa venir soddisfatto.
In questo primo periodo il bambino è terrorizzato dal timore di essere danneggiato (la
Klein chiama questo sentimento: «posizione persecutoria»). Poi, verso il terzo mese, il
bambino teme di poter distruggere la persona che ama e di cui ha bisogno (tale
sentimento, è chiamato dalla Klein: «posizione depressiva»).
Constatando, in seguito, che la sua aggressività non è poi così distruttiva e potente, il
bambino riesce a superare la posizione depressiva, diventa fiducioso e dimostra più
sicurezza. Questo superamento, tuttavia, non avviene una volta per tutte: la posizione
persecutoria e quella depressiva possono riesplodere anche nella vita adulta.

La terapia non direttiva di Carl Rogers

Il contributo di Carl Ramson Rogers (1902-1987) alla psicoterapia è costituito da


quell’insieme di principi generali che, attivi nella sua esperienza terapeutica, sono
conosciuti come terapia centrata sul cliente (Client Centered Therapy).
Si tratta di un sistema aperto di teorie e di ipotesi che, in quanto tali, vengono enunciate in
via provvisoria e sottoposte incessantemente, nella attività clinica, al vaglio della prova:
Ho sempre avuto la convinzione di proporre le mie idee in via provvisoria e come
qualcosa che può essere accettato o rifiutato.
In ogni caso, nella teoria di Rogers, un riferimento costante viene fatto a una forza di base,
e la terapia viene centrata sulla persona perché
[nella persona] vi è una forza che ha una direzione fondamentale positiva.
Questa forza, definita anche tendenza attualizzante, è l’originaria sorgente di energia
vitale che spinge la persona in direzione del suo sviluppo e della sua autorealizzazione. E
nel rapporto terapeutico si dovrebbero proprio porre le condizioni perché tale forza emerga
e operi.
Altro dato riferito al processo terapeutico è l’esperienza attuale (experiencing). Essa è
connessa al processo totale della nostra vita soggettiva, a quel filone costituito dal fluire
continuo di sentimenti impliciti, allo stato preconcettuale. A esso attingiamo per fornire di
dati la nostra esperienza attuale e consentirle significati espliciti e concettualizzazioni:
Rilevanza [L’esperienza attuale è riferita] al dato sentito
dell’esperienza immediatamente e che è implicitamente
attuale nel significativo […] al sentimento che un soggetto
processo prova nell’avere un’esperienza. È una corrente
terapeutico continua di sentimenti con alcuni, pochi,
contenuti espliciti. È qualcosa di dato nel campo
fenomenico di ogni persona.

Quando mi chiedo: «che tipo di esperienza attuale è questa?», vi è sempre una


risposta implicita anche se ancora non è stata concettualizzata una risposta esplicita.
L’esperienza attuale implica pertanto, come s’è detto, significati espliciti e possibili
concettualizzazioni. Ora, quando Rogers considera l’esperienza clinica propria e quella dei
suoi colleghi e i dati forniti dalla ricerca, rileva una notevole differenza nel modo di
percepirsi del soggetto a seconda degli stadi in cui si trova nel processo di modificazione e
di crescita. A un estremo del processo c’è la fissità e la rigidita di chi è incapace di vivere
l’esperienza con immediatezza, nel senso che il distacco da quanto si prova è grande e i
significati sono formulati in modo stereotipo e impersonale.
Gli stadi intermedi sono caratterizzati da una eccessiva intellettualizzazione, dal discorrere
di quel che si prova in quel momento come se appartenesse al passato, dal timore di vivere
sentimenti presenti, via via sino a una accettazione piena di quel che si prova, anche di
sentimenti in precedenza negati:
Nello stadio più avanzato del continuum, vivere con immediatezza quanto si prova è
la caratteristica più rilevante del processo di terapia. In questi momenti quello che si
sente coincide con quello che si pensa; il sé è la coscienza riflessa di quel che si
prova e la volontà è la conseguenza naturale del significato di questo fluire di
referenti interiori. Il soggetto, a questo stadio, è un processo fluido di esperienze
accettate e integrate.
Si viene in tal modo modificando anche il concetto di sé. Tendiamo a crearci un concetto
di noi stessi accettabile a noi e agli altri, sulla base di valori provenienti dall’esterno e non
originati dalla nostra esperienza. Tali valori sono mantenuti in modo rigido e ci inducono a
negare, come nostre, esperienze non compatibili con essi.
Tale concetto di sé è rigido, distorto e incompleto perché escludiamo da esso esperienze
importanti e ci troviamo insicuri, in uno stato di vulnerabilità e di incongruenza:
L’incongruenza tra L’incongruenza è un costrutto fondamentale della
l’immagine di sé ed teoria che abbiamo elaborato. Si riferisce a una
esperienze non discrepanza fra l’esperienza reale dell’organismo
compatibili con e l’immagine di sé che l’individuo ha quando si
essa rappresenta quell’esperienza. Per esempio, uno
studente può provare, a livello globale, […]
paura dell’Università e degli esami che si
svolgono al terzo piano di un certo edificio, in
quanto questi possono mettere in luce una sua fondamentale inadeguatezza. Poiché
la paura di tale inadeguatezza è decisamente in contrasto con il concetto che egli ha
di sé, questa esperienza è rappresentata nella sua coscienza in modo distorto, come
una paura irragionevole di salire le scale di questo o di qualunque altro edificio, e,
ben presto, come una paura irragionevole di attraversare le piazze.
La modificazione del concetto di sé è quindi un altro dato importante nel continuum del
processo terapeutico. Come si pone il terapeuta in tale processo? Partendo dalla base
dell’iniziale principio della non direttività, egli è in uno stato di autenticità e di
congruenza, «è profondamente se stesso e la sua esperienza reale è fedelmente
rappresentata nella sua coscienza» (autenticità e congruenza).
Non serve agire in modo calmo e piacevole quando di fatto ci si sente critici e pieni
di ira. Non serve agire come se si conoscessero le risposte da dare quando non si
conoscono.

Vorrei aggiungere che, mentre sento di aver imparato a fondo la verità di queste
proposizioni, non l’ho messa a profitto in maniera adeguata.
Il terapeuta sente di accettare ogni aspetto dell’esperienza del cliente senza condizioni, e
vive verso di lui una considerazione positiva. Non esprime valutazioni o giudizi
(accettazione incondizionata). Entra con lui in un rapporto empatico; ne considera
l’esperienza ponendosi dal di dentro del suo mondo e del suo modo di sperimentare.
L’empatia del Sentire il mondo personale del cliente «come se»
terapeuta con il fosse nostro, senza però mai perdere questa
mondo del cliente qualità del «come se», questa è empatia; sentire
l’ira, la paura, il turbamento del cliente, come se
fossero nostri, senza però aggiungervi la nostra
ira, il nostro turbamento, questa è la condizione che tentiamo di descrivere.
Ultima condizione, che le riassume tutte, è che il cliente percepisca l’accettazione e
l’empatia del terapeuta. Per Rogers, non valgono criteri esterni di descrizione del
processo, ma criteri interni al cliente stesso in base a ciò che viene via via sperimentando.

La comunicazione autentica, l’individuo e il gruppo

Rogers dal ’64 ha lasciato l’insegnamento universitario per occuparsi della


sperimentazione sui gruppi. Tale sperimentazione si è estesa in numerosi paesi europei,
compresa l’Italia. Il gruppo può divenire, per Rogers, la situazione elettiva per riuscire a
essere realmente se stessi, al di fuori di ruoli precostituiti.
Ma che cosa «fa» il gruppo? È evidente che non basta che ci siano più persone insieme in
un posto, o sotto una denominazione comune (per esempio classe), perché ci sia un
gruppo. Nei primi giorni di scuola la classe I B è un gruppo, ma solo in senso formale.
Perché diventi un gruppo reale devono darsi alcune condizioni: tra queste essenziale è la
comunicazione autentica. E sia per un gruppo che si trovi a vivere un’esperienza comune
(classe), sia per un gruppo di scienziati che lavorino a un progetto comune, la
comunicazione autentica è fondamento del loro esistere come gruppo.
Come si realizza tale comunicazione? La comunicazione investe l’intera personalità, si
comunica con tutto il nostro atteggiamento, non solo verbalmente (talvolta le parole sono
schermo). Che cosa comunichiamo di noi? Quello che vogliamo sembrare o quello che
siamo realmente? Nella nostra storia psicologica una delle cose che apprendiamo molto
presto, e a nostra insaputa, è come essere graditi agli altri per essere amati. La
considerazione e l’amore degli altri ci fondano nella nostra identità: sono la condizione
primaria del nostro esserci come persone.
A questo punto essere bravi, buoni, intelligenti, forti, ricchi ecc. (a seconda dei valori che
il nostro sistema socioculturale coltiva) vuol dire esserci, esistere. Capita molto spesso di
non sentirsi né bravi, né forti, né intelligenti ecc. (pensiamo al bambino che si trova di
fronte a modelli molto più grandi di lui). Allora l’unica scappatoia (in un sistema di
comunicazione rigido in cui le richieste vengono vissute come eccessive) è cercare in
qualche modo di adeguarsi, assumendo atteggiamenti «come se» si fosse bravi,
intelligenti, forti eccetera.
Qui è la radice del «voler sembrare» (a se stessi e agli altri) che nasce da una
fondamentale sfiducia in sé e nella possibilita di essere considerati e amati anche se visti
per quel che si è. Scatta in tal modo un meccanismo di atteggiamenti e comportamenti che
diventeranno tratti costanti della propria personalità, ma che non sono autentici. In questo
caso la comunicazione è distorta, perché si è impossibilitati a comunicare realmente se
stessi. Ci sono molti esempi nella vita di ogni giorno di comunicazioni tra «fantasmi o
maschere». Il disagio, talvolta il dramma della incomunicabilità e della alienazione, è in
questo non-incontro tra individui che non riescono a essere quello che sono; così che da un
lato non possiamo riconoscerci nell’individuo fittizio (ma così abituale da scattare
automaticamente) che di solito usiamo nei rapporti con gli altri, dall’altro non riusciamo a
ritrovare la nostra vera individualità perché non l’abbiamo lasciata emergere e agire,
l’abbiamo persa di vista. In breve: sappiamo che non siamo quell’individuo che si muove,
parla, agisce con gli altri; ma chi siamo realmente, non riusciamo più a capirlo.
In un gruppo formale coesistono individui con personalità strutturata su basi più o meno
autentiche, quindi con diverse capacità di comunicazione autentica. La difficoltà nella
formazione di un vero gruppo, consiste nell’agevolare il più possibile tale tipo di
comunicazione. In che modo? Operando nel senso inverso al meccanismo che ha costruito
la maschera difensiva. Occorre poter creare e fruire di una atmosfera di libertà e di
accettazione spontanea dell’altro, senza porre condizioni. Per libertà si intende essere
liberi dal dover sembrare a tutti i costi intelligenti, bravi, spiritosi ecc. per poter contare.
Libertà dalla paura di essere e di mostrarsi per quel che si è, e libertà di vivere l’esperienza
che anche così si è accettati e stimati. La spontanea e calda accettazione degli altri aiuta ad
accettarsi e a essere quel che si è, e a crescere su questa base reale della nostra personalità:
Sono arrivato a sentire che più l’individuo è capito e accettato profondamente, più
tende a lasciar cadere le false facciate con cui ha affrontato la vita e più si muove in
una direzione positiva, di miglioramento.
È il primo passo per sentirsi liberi e interi, veramente dentro i propri sentimenti, emozioni,
reazioni, per vivere le situazioni da vivi, comunicando con tutta la propria persona cose
vere. Allora, qualsiasi cosa si dica o si faccia, è comunicare veramente.
Su questa base un gruppo riesce a tirare il filo conduttore del proprio strutturarsi. Ed è
veramente un punto d’arrivo. E quanto al potere di gruppo, se si sono stabilite le
condizioni sopra accennate, non è più espressione di una leadership nel senso autoritario o
autorevole. Esso è un potere che, paradossalmente, si esplica nel momento in cui si cede: è
il potere di favorire nell’altro il senso della sua forza di base, della sua energia vitale e
delle sue reali capacità, di fargli sentire che ha potere e che se lo può assumere per la sua
crescita interiore e intellettuale.
Angoscia e disperazione
Edvard Munch (1863-1944)

L’urlo. Oslo, Galleria Nazionale


Il Vampiro. Oslo, Munch Museet


Malinconia. Bergen, Kunstmuseum


Salvador Dalí (1904-1989), Il grande masturbatore. Madrid, Museo Nacional Centro de Arte Reina
Sofia

PARTE TERZA

LO STRUTTURALISMO

Il fine ultimo delle scienze umane non consiste nel costituire l’uomo, ma nel dissolverlo.
Claude Lévi-Strauss

[Freud] si è assunto la responsabilità – contro Esiodo, per il quale le malattie mandate da Zeus
avanzano sugli uomini in silenzio – di mostrarci che ci sono malattie che parlano e di farci intendere la
verità di ciò che dicono.
Jacques Lacan

L’uomo è un’invenzione che l’archeologia del nostro pensiero non ha difficoltà ad assegnare a
un’epoca recente. E forse neanche a dichiararne prossima la fine […]. Ai nostri giorni, piuttosto che
l’assenza o la morte di Dio viene proclamata la fine dell’uomo […]. L’uomo sta per scomparire.
Michel Foucault
USO SCIENTIFICO E USO FILOSOFICO DEL TERMINE
STRUTTURA

I
Il termine «struttura» circola oggi tranquillamente all’interno del traffico linguistico delle
scienze naturali, di quelle matematiche e di quelle storico-sociali. Così, per esempio,
parliamo di strutture logiche e di strutture linguistiche; abbiamo in fisica la struttura
nucleare dell’atomo e in astrofisica discorriamo di struttura dell’universo; in matematica si
parla di strutture di appartenenza (negli insiemi), di strutture algebriche (gruppi, anelli,
corpi, cioè leggi di composizione), di strutture spaziali o topologiche. Abbiamo la struttura
del corpo umano in anatomia, e le strutture sociali ed economiche messe in evidenza da
sociologi ed economisti; si studiano le strutture molecolari e quelle chimiche, e così via. In
linea generale, e con cautela, possiamo dire, sulla scia di Piaget, che una struttura è un
sistema di trasformazioni che si autoregolano. Una struttura è un complesso di leggi che
definiscono (e istituiscono) un ambito di oggetti o di enti (matematici, psicologici,
giuridici, fisici, economici, chimici, biologici, sociali ecc.), stabilendo relazioni tra di essi
e specificando i loro comportamenti e/o le loro tipiche maniere di evolversi. Questo, in
breve, per quel che concerne l’uso del concetto di struttura all’interno delle scienze.
Ma c’è anche un uso filosofico o un insieme di usi filosofici del concetto di struttura. E
questi sono appunto gli usi elaborati da pensatori come Lévi-Strauss, Althusser, Foucault e
Lacan, i quali, rivolgendosi contro l’esistenzialismo, il soggettivismo idealistico,
l’umanismo personalistico, lo storicismo e l’empirismo piattamente fattualistico (con il
terrore che questo ha per la «teoria»), hanno dato origine a un movimento di pensiero o,
meglio, a un atteggiamento, quello strutturalistico appunto, in cui si avanzano soluzioni
ben diverse (da quelle proposte dalle filosofie ora ricordate) per urgenti problemi filosofici
riguardanti il soggetto umano o «io» (con la sua presunta libertà, la sua presunta
responsabilità, il suo presunto potere di far storia) e lo sviluppo della storia umana (e il suo
presunto senso). Gli strutturalisti hanno voluto invertire la direzione di marcia del sapere
sull’uomo: hanno inteso spodestare il soggetto (l’io o la coscienza o lo spirito) e le sue
celebrate capacità di libertà, autodeterminazione, autotrascendenza e creatività, a tutto
favore di «strutture» profonde e inconsce onnipervasive e onnideterminanti, cioè di
strutture onnivore nei confronti dell’io. E questo al fine di rendere scientifiche le «scienze
umane». Scrive Lévi-Strauss (in Criteri scientifici nelle discipline sociali e umane, 1964):
Le scienze umane Non esistono da un lato le scienze esatte e
allieve delle naturali, e da un altro lato le scienze sociali e
scienze naturali umane. Ci sono due modi di approccio, di cui uno
soltanto ha carattere scientifico: quello delle
scienze esatte e naturali che studiano il mondo, e
al quale le scienze umane cercano di ispirarsi quando studiano l’uomo in quanto fa
parte del mondo. L’altro approccio, quello delle scienze sociali, si avvale certo di
tecniche desunte dalle scienze esatte e naturali; ma i rapporti che in tal modo
collegano le une alle altre sono estrinseci, non intrinseci. Nei confronti delle scienze
esatte e naturali, le scienze sociali sono nelle condizioni di clienti, mentre le scienze
umane aspirano a diventare allieve.
Ma allorché queste allieve che sono le scienze umane crescono, si vede che esse «possono
diventare scienze solo cessando di essere umane». E qui troviamo il punto di intersezione
in cui diventa possibile individuare al meglio l’atteggiamento strutturalistico. Lo
strutturalismo, infatti, non si qualifica come un compatto complesso di dottrine (non esiste
una «dottrina» strutturalistica); esso, piuttosto, si caratterizza per una comune polemica
condotta dagli strutturalisti contro il soggettivismo, l’umanismo, lo storicismo e
l’empirismo. Potremmo dire così: lo strutturalismo filosofico è un ventaglio di proposte
disparate che ritrovano però la loro unità in una comune protesta contro l’esaltazione
dell’io e la glorificazione del finalismo di una storia umana fatta o comunque guidata o
concreata dall’uomo e dal suo impegno.
Sviluppandosi in Francia a partire dagli anni cinquanta, la protesta strutturalista ebbe come
suo bersaglio più immediato l’esistenzialismo, il cui umanismo (col ruolo primario che
esso attribuisce all’io «condannato a essere libero» e creatore di storia) venne subito
accusato, tra l’altro, di non essere per nulla scientifico, anzi di essere completamente
refrattario dinanzi a tutta una serie di risultati scientifici che inequivocabilmente
griderebbero la falsità dell’immagine dell’uomo costruita dall’umanismo esistenzialista,
tramandata e difesa da ogni spiritualismo, e da ogni umanismo.
La linguistica strutturale, da Saussure in avanti, ha mostrato i complessi meccanismi
(fonologici e sintattici ecc.) di quella struttura che è il linguaggio, all’interno delle cui
possibilità si muove il nostro pensiero; l’etnolinguistica (Sapir e Whorf) ci ha fatto vedere
come e in che misura la nostra visione del mondo dipenda dal linguaggio che parliamo; il
marxismo ha posto in evidenza il peso della struttura economica sulla costruzione
dell’individuo, dei suoi rapporti e delle sue idee; la psicoanalisi ha immerso il nostro
sguardo in quella struttura inconscia che regge i fili dei comportamenti consci dell’io;
l’antropologia e le scienze etnografiche pongono in evidenza sistemi compatti di regole, di
valori, di idee, di miti che ci plasmano fin dalla nascita e ci accompagnano sino alla
tomba.
Una storiografia rinnovata, soprattutto sotto gli stimoli di Bachelard (centrale è la sua idea
di «rottura epistemologica»), ci mette di fronte a una storia del sapere come sviluppo
discontinuo di strutture che in-formano il pensiero, la pratica e le istituzioni di diverse
epoche e con ciò di segmenti culturali differenti e discreti della storia dell’uomo.
Ebbene, di fronte a queste cose, dinanzi alla lucida consapevolezza della morsa costituita
dalla onnipresenza e onnipotenza di strutture psicologiche, economiche, epistemiche o
psicologiche, e sociali, seguitare a parlare di un soggetto o io o coscienza o spirito libero,
responsabile, creativo e facitore di storia, quando non è ignoranza, o è uno scherzo (di cui
sorridere) oppure è un inganno derivato da un autoinganno (che bisogna svelare). In tal
modo, lo strutturalismo si configura come la filosofia che intende ergersi su nuove
consapevolezze scientifiche (linguistiche, economiche, psicoanalitiche ecc.) e che porta, a
sua volta, a consapevolezza la riduzione della libertà in un mondo sempre più
amministrato e organizzato: esso è la coscienza dei condizionamenti che l’uomo scopre e –
diciamo noi – degli ostacoli che egli stesso magari si è creato e crea sulla via della sua
libera e creativa iniziativa.
Volendo sintetizzare, dobbiamo dire che, per lo strutturalismo filosofico, la categoria o
idea di fondo non è l’essere ma la relazione, non è il soggetto ma la struttura. Gli uomini,
al pari dei pezzi nel gioco degli scacchi o similmente alle carte nel gioco delle carte,
oppure al pari degli enti linguistici, matematici o geometrici, non hanno significato e «non
esistono» al di fuori delle relazioni che li istituiscono, li costituiscono e ne specificano il
comportamento. Gli uomini, i soggetti, sono forme e non sostanze.
L’umanismo (e «l’esistenzialismo – aveva detto Sartre – è un umanismo») esalta l’uomo
ma non lo spiega. Lo strutturalismo, invece, intende spiegarlo. Ma, spiegandolo, lo
strutturalismo proclama che l’uomo è morto. Nietzsche asserì che Dio è morto; e oggi gli
strutturalisti affermano che è l’uomo che è morto. E lo avrebbero ucciso le scienze umane.
La scienza dell’uomo non è possibile senza cancellare la coscienza dell’uomo. Ha scritto
Lévi-Strauss ne Il pensiero selvaggio:
Il fine ultimo delle scienze umane non consiste nel costituire l’uomo, ma nel
dissolverlo.
CLAUDE LÉVI-STRAUSS E LO STRUTTURALISMO IN
ANTROPOLOGIA

II
Le strutture elementari della parentela

Nato a Bruxelles nel 1908, ma vissuto poi a Parigi, Claude Lévi-Strauss, dopo aver lasciato la facoltà
di giurisprudenza, si laurea in filosofia nel 1931. Deluso dall’orientamento idealistico della filosofia, Lévi-
Strauss decide di dedicarsi all’antropologia e segue i seminari di Marcel Mauss al Museo etnografico di
Parigi. È infatti da quest’ultimo che apprende a considerare il mondo «primitivo» come un mondo tutt’altro
che irrazionale. Nel 1935 riceve un incarico di insegnamento a San Paolo del Brasile e compie le prime
indagini sui «selvaggi» dell’Amazzonia e del Mato Grosso. Si avvicina intanto al funzionalismo di Radcliffe-
Brown e di Malinowski, i quali guardavano alla funzione svolta dai fatti umani (riti, miti, istituzioni ecc.)
all’interno di una cultura, ma via via se ne allontanerà perché troverà le pur pregevoli ricerche dei
funzionalisti troppo settoriali e circoscritte ai fini coscienti di un gruppo sociale, invece che indirizzate allo
studio, che Lévi-Strauss veniva concependo come fondamentale, di strutture inconsce e generali
riscontrabili presso qualsiasi società.
Decisivo, su questa direzione di pensiero, sarà l’incontro di Lévi-Strauss con lo strutturalismo
linguistico di Jakobson e Trubeckoj.

Leggiamo in Antropologia strutturale (1958):


La rilevanza della La nascita della fonologia […] non solo ha
fonologia per le rinnovato le prospettive linguistiche […]. La
scienze sociali fonologia ha, nei confronti delle scienze sociali,
lo stesso compito rinnovatore che la fisica
nucleare, per esempio, ha avuto per l’insieme
delle scienze esatte.
E un tale compito di rinnovamento la fonologia lo avrebbe per queste ragioni:
In primo luogo la fonologia passa dallo studio dei fenomeni linguistici coscienti a
quello della loro infrastruttura inconscia; rifiuta di considerare i termini come entità
indipendenti, prendendo invece come base dell’analisi le relazioni tra i termini;
introduce la nozione di sistema.
In questo modo la linguistica si mostra come una scienza in grado di offrire uno studio
rigoroso di un fenomeno umano:
[con la fonologia] per la prima volta una scienza sociale riesce a formulare relazioni
necessarie.
Il successo della linguistica strutturale non può pertanto non interessare, fa presente Lévi-
Strauss, le discipline limitrofe. Queste devono vedere se l’applicazione dei metodi che
hanno portato al successo della linguistica porterà anche al loro successo. Lévi-Strauss ha
verificato tale ipotesi ne Le strutture elementari della parentela (1949).
Spalancando nuove prospettive, egli ha abbandonato lo studio monografico, settoriale, dei
rapporti di parentela in questa o in quella cultura, studio che, per quanto andasse lontano,
non aveva permesso il raggiungimento di leggi di validità universale capaci di dominare la
più grande varietà dei modi e dei rapporti di parentela. Ebbene, utilizzando il modello
della linguistica (utilizzando statistiche e concetti e tecniche logico-matematiche), Lévi-
Strauss riesce a porre in evidenza relazioni e strutture costanti al di sotto della varietà e
della diversa complessità dei sistemi di parentela:
Nello studio dei rapporti di parentela […] il sociologo si trova in una situazione
formalmente simile a quella del linguista fonologo: come i fonemi, i termini di
parentela sono elementi

Claude Lévi-Strauss

Una ragione di significato; anch’essi acquistano tale


nascosta guida significato solo a condizione di integrarsi in
l’apparente caos sistemi; i «sistemi di parentela», come i «sistemi
dei fenomeni umani fonologici», sono elaborati dall’intelletto allo
stadio del pensiero inconscio; infine la ricorrenza
in regioni del mondo fra loro lontane e in società
profondamente differenti, di forme di parentela, regole di matrimonio, atteggiamenti
ugualmente prescritti tra certi tipi di parenti ecc., induce a credere che, in entrambi i
casi, i fenomeni osservabili risultino dal gioco di leggi generali ma nascoste.
C’è dunque una ragione nascosta che guida e struttura il caos (che è tale solo
apparentemente) dei fenomeni umani. Partendo dall’idea che «le regole del matrimonio e i
sistemi di parentela siano considerati come una specie di linguaggio, cioè un insieme di
operazioni destinate ad assicurare, tra gli individui e i gruppi, un certo tipo di
comunicazione» e supponendo che «il messaggio sia qui costituito dalle donne del gruppo
che circolano tra i clan, le stirpi o le famiglie», Lévi-Strauss è riuscito a stabilire che
Un sistema di relazioni le regole di matrimonio osservabili nelle società
consanguinee viene sostituito
umane rappresentano altrettante maniere di
da un sistema sociologico di
acquisizione di parentela assicurare la circolazione delle donne in seno al
gruppo sociale, cioè di sostituire un sistema di
relazioni consanguinee, di origine biologica, con un sistema sociologico di
acquisizione di parentela.
In altri termini, Lévi-Strauss dimostra che «la finalità profonda delle strutture secondo le
quali i “primitivi” costruiscono i loro rapporti di parentela consiste nell’impedire che ogni
singolo clan familiare si rinchiuda in se stesso. Consiste nell’obbligare tutti i clan a
istituire rapporti matrimoniali tali per cui ogni famiglia sia indotta a scambiare le proprie
donne con altre famiglie – e secondo strutture tali da poter mantenere sempre vivo e aperto
l’obbligo reciproco di compiere questo scambio» (Sergio Moravia).
È evidente che in un’economia povera, come è quella dei primitivi, questa regola che
amplia progressivamente i legami di parentela, amplia anche i rapporti di solidarietà e di
collaborazione, e salva il singolo gruppo da quel micidiale isolamento che lo porterebbe a
uno stato di belligeranza, a motivo della scarsità dei mezzi di sussistenza, con ogni altro
gruppo.

Un kantismo senza soggetto trascendentale

Una tale interpretazione delle strutture elementari della parentela, mentre da una parte
riesce a mettere ordine in una sconfinata congerie di fenomeni a prima vista sconnessi o
comunque mai visti dalla prospettiva di un principio unico, dall’altra rende conto della
universale proibizione dell’incesto.
Questa proibizione non va spiegata con argomentazioni di tipo biologico o con ragioni
morali. Essa è, piuttosto, la conseguenza della struttura inconscia e universale che impone
l’instaurazione dei rapporti aperti di parentela:
La proibizione La proibizione dell’incesto non è tanto una
dell’incesto come regola che vieta di sposare la madre, la sorella o
regola aurea del la figlia, quanto invece una regola che obbliga a
dono dare ad altri la madre, la sorella e la figlia. È la
regola del dono per eccellenza.
In tal modo, l’uomo passa da una dimensione
naturale a quella culturale:
L’analoga funzione Se la proibizione dell’incesto e l’esogamia hanno
dell’esogamia e del una funzione essenzialmente positiva, se la loro
linguaggio ragion d’essere è quella di stabilire tra gli uomini
un legame senza il quale essi non potrebbero
sollevarsi al di sopra dell’organizzazione
biologica per raggiungere quella sociale, allora bisogna riconoscere che linguisti e
sociologi non soltanto impiegano gli stessi metodi, ma si applicano allo studio del
medesimo oggetto. Da questo punto di vista, in effetti, esogamia e linguaggio hanno
la stessa funzione fondamentale: la comunicazione con gli altri e l’integrazione del
gruppo.
E questa comunicazione con gli altri si specifica nel senso che la proibizione dell’unione
con donne più vicine «dona» queste ultime a uomini sempre più lontani, e in questo modo
il gruppo si amplia sempre di più. In realtà, ogni unione matrimoniale ne rende impossibili
altre per la generazione successiva.
E non dobbiamo, a questo punto, sorvolare su di una questione di rilievo per la ricerca
filosofica: Lévi-Strauss considera le forme strutturali della parentela da lui evidenziate non
tanto e non solo come strumenti euristici o modelli corroborati dall’esperienza, quanto
piuttosto quali forme fornite di una vera e propria consistenza ontologica. Esse sarebbero
svariati prodotti di una comune e innata dotazione psichica dell’umanità. Di conseguenza,
i fenomeni antropologici vengono visti come materiale esemplificatorio che non può far
altro che attestare le forme invarianti dello «spiritoumano».
Lo strutturalismo di Lévi-Strauss, come ha detto Paul Ricoeur, si configura in tal modo
come un kantismo senza soggetto trascendentale: c’è un inconscio (di tipo kantiano e non
freudiano) formato di categorie e che sarebbe la matrice di tutte le altre strutture. Da qui si
comprende anche la polemica antistoricistica di Lévi-Strauss: la storia non ha nessun
senso né vi è in essa un fine, né si sviluppa in maniera continua e progressiva; in essa
operano strutture inconsce e non uomini con i loro fini dichiarati e scopi palesi: questi
sono solo apparenza. Né vi è una legge di progresso a guidare la storia umana nella sua
globalità: ogni «zona di storia» ha «una sequenza propria» e una «codificazione
differenziale del prima e del poi».
Nella storia non ci può essere un mutamento reale, un progresso davvero sconvolgente e
innovativo. Anzi, esistono, dice Lévi-Strauss, società fredde che non pensano a evolversi
né intendono trasformare le proprie condizioni di vita.
A queste società fredde, che egli individua in alcune popolazioni primitive, Lévi-Strauss
contrappone le società calde, quelle cioè civili ed evolute, e, in Tristi Tropici (1955) e
anche in Antropologia strutturale, egli dirà che la vita dei primitivi è migliore, più
autentica, meglio in armonia con la natura che quella dei popoli civilizzati. L’agire umano
è tutto un agire regolato dalle poche norme «formali» che lo strutturalismo fa emergere.
La storia umana è come un gioco di scacchi, con pezzi che si spostano secondo le
indicazioni delle regole. Le più diverse configurazioni dei pezzi sulla scacchiera possono
sembrare arbitrarie e sempre «nuove» a un osservatore esterno ignaro delle regole. Ma non
è così per chi conosca le regole. E lo strutturalista pretende di cogliere le regole che,
incastonate nello «spirito dell’umanità», strutturano non solo le configurazioni della vita
sociale degli uomini, ma anche i suoi prodotti mentali.

La struttura dei miti

Questa tesi, vale a dire l’idea che esistano delle strutture «psicologiche» profonde,
strutture elementari del pensiero umano, Lévi-Strauss la dimostra da un lato con l’esame
del pensiero selvaggio e dall’altro con l’analisi dei miti.
Lucien Lévy-Bruhl, nei suoi studi sui «primitivi», aveva posto l’accento sugli aspetti
emozionali della mentalità dei primitivi, sostenendo che in questa troviamo la quasi
assenza delle funzioni logiche. Ora, però, ne Il pensiero selvaggio (1962), Lévi-Strauss,
sulla base di una ricca documentazione, sostiene la falsità dell’assunto di Lévy-Bruhl. Il
pensiero «selvaggio», egli dice, non è affatto meno logico di quello dell’uomo «civile», e
ciò è riscontrabile nelle catalogazioni che i «primitivi» effettuano dei fenomeni naturali o
nelle loro classificazioni totemiche. Il pensiero selvaggio è un ordinamento della natura il
quale rivela una ben chiara razionalità.
Analogamente, una rigida logica strutturale rivelano i miti, da Lévi-Strauss analizzati nei
quattro volumi delle Mitologiche (Il crudo e il cotto, 1964; Dal miele alle ceneri, 1966;
L’origine delle buone maniere a tavola, 1968; L’uomo nudo, 1972).
Il mito viene spesso considerato come il luogo della fantasia e dell’arbitrarietà. Ma Lévi-
Strauss afferma che esso è una struttura logico-formale che dà luogo a prodotti con cui la
mente umana ordina, classifica e dà senso ai fenomeni.
Studiati a livello della loro organizzazione sintattica, spezzati nei loro elementi e
considerati nelle loro relazioni in genere binarie, congiuntive, oppositive ecc. (l’eroe e la
vittima, l’amico e il nemico, il padre e la madre, il crudo e il cotto ecc.), i miti,
apparentemente diversi e senza collegamenti, di diverse società possono venir raggruppati
e ordinati. E ciò che Lévi-Strauss fa è:
Assiomi che portare alla luce non tanto ciò che c’è nei miti
ordinano miti […] quanto il sistema degli assiomi e dei
apparentemente postulati che definiscono il miglior codice
diversi di diverse possibile, capace di dare una significazione
società comune a elaborazioni inconsce, che ineriscono a
spiriti, società e culture scelti fra quelli
maggiormente lontani l’uno dall’altro.
C’è, quindi, la logica dei miti: questa è immanente alla mitologia stessa e
gli schemi mitici presentano eminentemente il carattere di oggetti assoluti.
Pertanto, scrive Lévi-Strauss ne Il crudo e il cotto:
noi non pretendiamo […] di mostrare come gli uomini pensino nei miti, ma viceversa
come i miti si pensano negli uomini, e a loro insaputa. E forse […] conviene
spingersi ancora più lontano facendo astrazione da ogni soggetto per considerare
che, in un certo modo, i miti si pensano fra di essi.
Dietro l’«apparente contingenza» e l’«incoerente diversità» delle regole del matrimonio,
Lévi-Strauss, con Le strutture elementari della parentela, ha messo in luce
un piccolo numero di principi semplici, grazie all’intervento dei quali un insieme
molto complesso di usi e costumi, di primo acchito assurdi (e giudicati generalmente
tali), sono ricondotti a un sistema significante.
E più «decisiva», sulla strada dello strutturalismo, appare a Lévi-Strauss l’indagine sui
miti, giacché questi non hanno «una evidente funzione pratica», per cui «se lo spirito
umano appare determinato perfino nei suoi miti, allora, a maggior ragione, deve esserlo
ovunque». In sostanza, l’intento che anima sia Le strutture elementari della parentela sia
l’analisi dei miti è sempre lo stesso:
redigere un inventario dei recinti mentali, ridurre dei dati apparentemente arbitrari a
un ordine, raggiungere un livello in cui si rivela una necessità immanente alle
illusioni della libertà.
L’uomo nella pittura dal Rinascimento a oggi

Lorenzo Lotto (1480-1556), Ritratto virile. Venezia, Gallerie dell’Accademia Collezione privata
Piero della Francesca (1420-1492), Ritratto di Sigismondo Pandolfo Malatesta. Parigi, Louvre
Albrecht Dürer (1471-1528), Autoritratto con pelliccia. Monaco, Alte Pinakothek
Anton van Dyck (1599-1641), Nicholas Lanier. Vienna, Kunsthistorisches Museum
L’uomo nella pittura dal Rinascimento a oggi

Gustave Courbet (1819-1877), Uomo con la pipa. Montpellier, Musée Fabre


Otto Müller (1874-1930), Autoritratto. Monaco, Staatsgalerie Moderner Kunst

Pablo Picasso, Ritratto di un pittore. Lucerna, Collezione privata


Francis Bacon (1909-1992), Autoritratto. Londra, Marlborough Gallery


Michel Foucault
MICHEL FOUCAULT E LO STRUTTURALISMO NELLA
STORIA

III
Strutture epistemiche e pratiche discorsive

Benché dichiari di non essere uno strutturalista (e tutti i più noti strutturalisti dichiarano di
non essere tali), Michel Foucault (nato a Poitiers nel 1926 e morto a Parigi nel 1984) è uno
dei più significativi strutturalisti contemporanei. Anzi, egli è – così ha scritto il filosofo
italiano Giulio Preti – «particolarmente importante, poiché ha portato con piena
consapevolezza teorica e polemica, l’atteggiamento strutturalista proprio nel “campo”
tradizionale riservato alla cultura umanistica e da essa gelosamente custodito: la storia e in
particolare la storia della cultura e delle idee».
Autore nel 1963 della Nascita della clinica, due anni prima con la Storia della follia
nell’età classica – opera che fu salutata dallo strutturalista Roland Barthes come una
prima applicazione dello strutturalismo alla scienza storica –, Foucault non volle scrivere
una storia della psichiatria intesa come storia delle teorie mediche concernenti il
trattamento pratico dei malati di mente, ma come una ricostruzione del modo poco
ragionevole, invero, con il quale i «normali» e «razionali» uomini dell’Europa Occidentale
hanno dato espressione alla loro paura della non-ragione, stabilendo in maniera repressiva
cosa è mentalmente «normale» e cosa è, invece, mentalmente «patologico». Il periodo
classico (XVII-XVIII sec.), quello che va da Cartesio all’illuminismo, passa come il
secolo della ragione, ma questo secolo della ragione teme la minaccia al razionale e la
caricatura del razionale, e si difende dalla follia rinchiudendo i «pazzi» e trattandoli molto
peggio delle bestie.
La ragione del periodo classico vieta un «altro» modo di essere, teme un linguaggio
diverso dal suo; è una ragione repressiva. Ma il mondo dell’esperienza del Rinascimento e
poi più tardi il senso della demenza che si ha a partire dal 1800 sono cose ben diverse. La
storia della follia ci mostra, pertanto, unità di significazione che «sono limiti a partire dai
quali gli uomini di un periodo storico pensano, comprendono, apprezzano» (Cornelis
Petrus Bertels).
In ogni caso, è con Le parole e le cose (1966) che Foucault esemplifica, in maniera ormai
ritenuta classica, l’approccio strutturalistico allo studio della storia. Anche Foucault
respinge il mito del progresso: quella continuità in cui l’uomo occidentale vuole
rappresentare il suo glorioso sviluppo è una continuità che non esiste. La storia non ha un
senso, la storia non ha fini ultimi. La storia è, piuttosto, discontinua. E per quel che
riguarda la storia della cultura, essa è informata o governata da tipiche strutture
epistemiche (o epistemi) le quali agiscono a livello inconscio attraversando e qualificando
i più diversi campi del sapere di un periodo culturale che si distingue e tipicizza proprio in
base alla sua struttura epistemica, struttura che lo storiografo rintraccerà in quelle pratiche
discorsive che sono «ciò che è stato prodotto […] in fatto di insiemi di segni», modi cioè
in cui vengono «ritagliate» e «significate» aree del sapere (Sergio Moravia).
Ma cos’è, più precisamente, una struttura epistemica? Dice Foucault:
L’episteme come Quando parlo di «episteme» intendo tutti i
paradigma rapporti che sono esistiti in una certa epoca fra i
fondamentale del vari campi della scienza. Penso per esempio al
sapere di un’epoca fatto che a un certo punto la matematica è stata
utilizzata per le ricerche nel campo della fisica,
che la linguistica, ovvero […] la semiologia, la
scienza dei segni, viene utilizzata dalla biologia (per i messaggi genetici), che la
teoria dell’evoluzione ha potuto essere utilizzata o ha servito da modello agli storici,
agli psicologi, ai sociologi del diciannovesimo secolo. Sono tutti questi fenomeni di
rapporti fra le scienze o fra i vari discorsi nei vari settori scientifici che costituiscono
quella che io chiamo «episteme» di un’epoca.
E la scienza che studia tali discorsi e tali epistemi viene chiamata da Foucault archeologia
del sapere, la quale fa esattamente vedere che nella storia non c’è progresso alcuno, e che
non esiste quella continuità di cui va fiero ogni storicismo. Quel che l’archeologia del
sapere mostra è un succedersi discontinuo di epistemi, l’affermarsi e il tramontare di
epistemi in una storia senza senso.

Le strutture epistemiche della storia del sapere occidentale

«Il mio problema – scrive Foucault – [sta nel] sostituire la forma astratta, generale e
monotona del “cambiamento”, nella quale tanto volentieri si pensa la successione, con
l’analisi di tipi differenziali di trasformazioni.» E questo implica due cose:
Per comprendere i [1] Mettere tra parentesi tutte le vecchie formule
cambiamenti delle di molle continuità mediante le quali
strutture ordinariamente si attenua il fatto selvaggio del
epistemiche cambiamento (tradizione, influenza, abitudini di
pensiero, grandi forme mentali, costruzioni
dell’intelletto umano), e far sorgere al contrario
con ostinazione tutta la vivacità della differenza: stabilire meticolosamente lo scarto.

[2] Mettere tra parentesi tutte le spiegazioni psicologiche del cambiamento (genio
dei grandi inventori, crisi della coscienza, apparizione di una nuova forma di
intelletto); e definire con la più grande cura le trasformazioni che – non dico –
hanno provocato, ma costituito il cambiamento. Sostituire insomma il tema del
divenire (forma generale, elemento astratto, causa prima ed effetto universale,
confusa mescolanza dell’identico e del nuovo) con l’analisi delle trasformazioni
nella loro specificità.
Ne Le parole e le cose Foucault distingue nella storia del sapere occidentale tre strutture
epistemiche che si succedono senza continuità alcuna. La prima è quella che si è
conservata sino al Rinascimento; la seconda si è imposta nel XVII e XVIII secolo; la terza
si è affermata nel XIX secolo.
Ma cos’è che tipicizza queste distinte strutture epistemiche le quali, a loro volta,
qualificherebbero tre distinte epoche culturali?
Nella prima struttura «le parole avevano la stessa realtà di quel che significavano»; ciò che
sono le cose stesse si legge nei segni del libro della natura. Così, per esempio, ciò che è un
animale o una pianta si ricava dalla forma esterna. E analogamente, nel caso della moneta,
«i segni che indicavano e misuravano le ricchezze dovevano avere essi stessi un valore
reale […]. Per gli economisti del Rinascimento […] l’idoneità della moneta a misurare le
merci e il suo potere di scambio si basavano sul suo valore intrinseco».
Verso la fine del XVI secolo e gli inizi del XVII avviene però una profonda
trasformazione, nel senso che il discorso rompe i legami che lo univano alle cose. I segni
direttamente percepibili, quando non sono idoli ingannatori, si configurano solo quali
piccoli aiuti perché il soggetto conoscente possa giungere a una rappresentazione della
realtà. Così, per esempio, Linneo non classifica più, come si faceva prima, in base a segni
che si supponeva ridessero la cosa («questo uccello caccia di notte»; «questo animale vive
nell’acqua» ecc.); egli piuttosto classifica in base a identità e differenze da analizzare e
scoprire. E, allo stesso modo, in economia, non c’è più il valore intrinseco del metallo; si
passa piuttosto alla rappresentatività della moneta. Foucault, a questo proposito, cita
Scipion de Grammont: «La moneta trae il proprio valore non dalla materia di cui è
composta ma dalla sua forma, cioè dall’immagine o contrassegno del principe».
Alla fine del XVIII secolo, infine, il sapere assume un nuovo aspetto: non si ferma né si
riduce alla rappresentazione del visibile, ma ricerca una diversa dimensione del reale, vale
a dire quella della struttura nascosta. Il pensiero e il sapere si ritraggono dall’ambito della
rappresentazione visibile per sondare quello delle strutture nascoste. Così, per esempio, è
la struttura del linguaggio o il sistema grammaticale che dà senso alle parole; è la funzione
biologica a divenire principio della classificazione degli esseri viventi nella anatomia
comparata; e non il denaro, ma il lavoro necessario per produrre un bene è misura del
valore di questo bene.
Sono queste, dunque, le strutture epistemiche che in maniera inconscia hanno strutturato le
pratiche discorsive (solo apparentemente libere) degli uomini in tre distinte e discontinue
epoche della storia del sapere in Occidente.
JACQUES LACAN E LO STRUTTURALISMO IN
PSICOANALISI

IV
L’inconscio è strutturato come un linguaggio

Contro la tendenza che la psicoanalisi, specie americana, avrebbe preso dopo Freud, vale a
dire la tendenza a riadattare gli individui all’ordine esistente, Jacques Lacan (1901-1981)
ha voluto praticare la via del ritorno a Freud. E questo ritorno allo «spirito»
dell’insegnamento di Freud (e non alla «lettera», come fa Otto Fénichel nella sua opera
Teoria psicoanalitica delle nevrosi) è, così mostra Lacan nei suoi Scritti raccolti nel 1966,
«un ritorno allo studio della funzione della parola e del significante nel soggetto che li
occulta» (Jean-Michel Palmier). Dice Lacan nell’Intervento sul transfert (1952):
[Freud] si è assunto la responsabilità – contro Esiodo, per il quale le malattie
mandate da Zeus avanzano sugli uomini in silenzio – di mostrarci che ci sono
malattie che parlano e di farci intendere la verità di ciò che dicono.
Ci sono dunque malattie che parlano, e l’analisi è l’ascolto delle loro parole. L’inconscio
non è la sede degli istinti, ma il luogo privilegiato della parola:
L’inconscio parla L’inconscio è quel capitolo della mia storia che è
perché soffre marcato da un bianco e occupato da una
menzogna; ed è il capitolo censurato. Ma la
verità può essere ritrovata; il più spesso è già
scritta altrove. E cioè: – nei monumenti: e questo è il mio corpo, vale a dire il nucleo
isterico della nevrosi in cui il sintomo isterico mostra la struttura di un linguaggio e
si decifra come un’iscrizione che, una volta raccolta, può essere distrutta senza
grave perdita; – nei documenti di archivio, anche: e sono i ricordi della mia infanzia,
impenetrabili al pari di essi, quando non ne conosco la provenienza; –
nell’evoluzione semantica: e ciò corrisponde allo stock e alle accezioni del
vocabolario che mi è proprio, così come al mio stile e al mio carattere; – e nella
tradizione, addirittura nelle leggende che in forma esorcizzata veicolano la mia
storia; – nelle tracce, infine, che di questa storia conservano inevitabilmente le
distorsioni rese necessarie dal raccordo del capitolo adulterato con i capitoli che
l’inquadrano e delle quali la mia esegesi ristabilirà il senso.
Jacques Lacan

Nelle malattie è l’inconscio che parla perché soffre, e più soffre più parla. Il compito
dell’analisi non è di ristabilire un rapporto tra il soggetto e la realtà, quanto piuttosto che il
soggetto riesca a capire la verità dell’inconscio. L’«Es» («Ça», dice Lacan) parla. Ma il
suo discorso è indecifrabile per il soggetto cosciente: «è il discorso dell’Altro»:
Noi insegnamo, al seguito di Freud, che l’Altro è il luogo della memoria, da esso
scoperto sotto il nome di inconscio.
L’inconscio parla, e perciò funziona come un linguaggio strutturato:
L’inconscio è strutturato come un linguaggio.

Il «sesamo» dell’inconscio sta nell’avere effetto di parola, nell’essere struttura di


linguaggio.
Se l’Es funziona come un linguaggio strutturato, si avrà questa conseguenza:
La linguistica ci può servire da guida, poiché è questo il suo ruolo nell’apice
dell’antropologia contemporanea, e non potremmo rimanervi indifferenti.
Certo Freud non conosceva la linguistica strutturale, eppure egli si comportò, dice Lacan,
come un linguista, e ciò troverebbe la più clamorosa espressione nell’affermazione della
struttura grammaticale del sogno. Il meccanismo del sogno, i prodotti onirici possono
venir paragonati a geroglifici. Lacan paragona Freud a Champollion. Prima di
Champollion, i geroglifici erano una lingua presunta e perduta, ma Champollion riesce a
vedere i pezzi e le regole del gioco.
E questa è la via aperta da Freud: l’inconscio parla e Freud ha cercato di decifrare il suo
linguaggio nel sogno, nella nevrosi, nella pazzia (che è un discorso senza oggetto, o
meglio, discorso il cui soggetto più che parlare è parlato). Non io parlo, ma es parla. In
principio era il Verbo e non l’Azione: la legge dell’uomo è la legge del linguaggio e del
significante che lo percorre interamente. Il significante crea, intorno all’uomo, una rete
tanto fitta da costituire già la costellazione che presiede alla sua nascita (J.-M. Palmier). E
il sintomo nevrotico è da considerarsi come il significante di un significato rimosso dalla
coscienza del soggetto: «simbolo scritto sulla sabbia della carne e sul velo di Maya».
La rimozione non è dunque rimozione di una cosa, ma di un discorso strutturato che
funziona al di fuori del soggetto cosciente:
Io penso dove non sono, sono dove non penso.
Per questo, la psicoanalisi insegna al soggetto a riconoscere i fogli in bianco della sua
storia. Al soggetto sfugge la verità della propria storia: io ed es sono sconnessi. Il fine
dell’analisi è quello di insegnare al soggetto quella verità che gli sfugge e lo immobilizza
nella ripetizione. E unicamente riconoscendo la verità del discorso dell’inconscio, il
soggetto ha questo vantaggio:
La psicoanalisi insegna a [nell’analisi il soggetto] viene restituito alla
riconoscere la verità del
discorso dell’inconscio
pienezza della dimensione storica della sua
esistenza. Se lo psicoanalista conduce il soggetto
da qualche parte è a una decifrazione che
presuppone una logica già nell’inconscio.

Lo stadio dello specchio

La problematica approfondita da Lacan è molto ampia (fondazione della psicoanalisi come


scienza, confronto della psicoanalisi con la linguistica, analisi del concetto di inconscio, di
quello di desiderio ecc.; la questione della posizione dello psicoanalista nell’attuale
società; il problema della formazione dello psicoanalista; critica della psicoanalisi dopo
Freud; critica del comportamentismo ecc.) e non è qui né il caso né la sede per passarla in
rassegna appunto in tutta la sua ampiezza. Tuttavia, a due questioni dobbiamo se non altro
accennare: lo «stadio dello specchio» e l’analisi del «desiderio».
Sembra che il bambino non abbia inizialmente esperienza del suo corpo come di una
totalità unitaria. Anzi, pare che primaria sia, piuttosto, l’angoscia del corpo disgregato.
Ebbene, con la teoria dello stadio dello specchio, Lacan mostra che la costruzione del
soggetto non è l’esito immediato di una percezione, ma è un evento che richiede la
mediazione dell’immagine del corpo. Lo stadio dello specchio si può scomporre in tre
tappe fondamentali:
1 In un primo momento il bambino percepisce l’immagine allo specchio come qualcosa di
reale che tenta di afferrare.
2 Poi capisce che si tratta di un’immagine e non di un essere reale.
3 Infine riconosce l’immagine allo specchio come la propria immagine. In questo modo il
bambino apprende la forma completa del suo corpo come immagine esterna a se stesso, in
una fase anteriore a quella in cui egli avrà la nozione di schema corporeo.
In altri termini, con lo stadio dello specchio, Lacan individua un momento genetico
fondamentale della formazione dell’io, allorché il bambino si trova tra il sesto e il
diciottesimo mese. Il bambino, in questo stadio, percepisce nella propria immagine allo
specchio o in quella dell’altro una forma nella quale anticipa una unità corporale che non
riconosce e non può riconoscere per altra via. Egli si identifica con questa sua immagine.
Senonché dell’immaginario non si può dire proprio nulla se esso non viene catturato dalla
catena del simbolico. L’immaginario viene prima, ma il simbolico è primario: solo nel
simbolico (cioè col «linguaggio») l’uomo si umanizza (o si disumanizza).
L’uomo si illude di creare quest’ordine simbolico, ma solo quando viene catturato in esso
egli nasce una seconda volta. «Lacan è strutturalista – scrive Jean Lacroix – in quanto
sovrappone al mondo reale e al mondo immaginario un terzo mondo, il mondo del
simbolo, che fonda l’uno e l’altro. Ciò a cui in definitiva Freud ci riconduce è l’enormità
di quest’ordine in cui siamo entrati, in cui siamo nati una seconda volta uscendo dallo
stadio giustamente denominato infans, senza parola. L’universalità di questo linguaggio, il
fatto che può essere tradotto in tutte le lingue deriva dalla semplicità del significato,
poiché i simboli psicoanalitici, nati dall’incontro tra desiderio e linguaggio, si rapportano
tutti, quali che siano la molteplicità e la diversità delle loro forme, alle relazioni di
parentela, alla vita e alla morte.»

Bisogno, domanda, desiderio

Il concetto di desiderio è centrale nella teoria di Freud. Ma Lacan trova che esso è ancora
molto impreciso. Per questo tenta di comprenderlo mettendolo in rapporto con il bisogno e
la domanda. Il bisogno è essenzialmente un fatto fisiologico (bisogno di acqua, di aria, di
zucchero). Il bisogno è appagato dall’oggetto che raggiunge. È peraltro vero che, entrando
nelle reti del linguaggio (simbolico), il bisogno non è mai allo stato puro, in quanto in esso
possono mescolarsi la domanda e il desiderio.
Ma cos’è la domanda? Essa «è domanda di una presenza e di una assenza. È prima di tutto
una domanda d’amore». La domanda è un appello rivolto all’Altro. La domanda, tuttavia,
si presenta spesso mascherata dal bisogno. E chi non sa riconoscere questo
mascheramento risponde al bisogno, ma non risponde alla richiesta d’amore. Così, per
esempio, quando un bambino chiede un dolce, pare che esprima un bisogno, mentre
spesso si tratta di una domanda d’amore rivolta alla madre: il bambino chiede il dolce, ma
quel che vuole è l’amore. La madre può rifiutargli il dolce ma dargli, con un abbraccio, il
suo amore. Ma può anche dargli il dolce negandogli l’amore. E può accadere che la
domanda d’amore venga costantemente misconosciuta, mentre si soddisfano i bisogni del
bambino. E quando questo accade, il bambino non amato rifiuta il cibo con cui lo si
ingozza. Lo rifiuta perché non ha amore, cerca amore e non lo ottiene, mentre lo si
rimpinza di quella «pappa asfissiante» che ha. La mamma «confonde le sue cure col dono
del suo amore». E così il bambino nutrito rifiuta il nutrimento. Comincia quella che si
chiama «anoressia mentale» che non è raro si concluda col suicidio.
Il bisogno è un fatto sostanzialmente fisiologico; la domanda è domanda d’amore. E il
desiderio? Ecco l’ermetico testo di Lacan:
Il desiderio come il Il desiderio si produce nell’al di là della
desiderio dell’Altro domanda perché articolando la vita del soggetto
alle sue condizioni essa ne sfronda il bisogno; ma
esso si scova anche nel suo al di qua perché,
domanda incondizionata della presenza e dell’assenza, essa evoca la mancanza a
essere sotto le tre figure del niente che costituisce il fondo della domanda d’amore,
dell’odio che giunge a negare l’essere dell’altro, e dell’indicibile di quel che s’ignora
nella sua richiesta.
Il testo, come sempre in Lacan, è impervio. In ogni caso, il desiderio non è una domanda
d’amore; esso inoltre non si appaga con un oggetto come se fosse un bisogno.
Il desiderio dell’uomo è desiderio dell’Altro.
Esso, commenta Palmier, è desiderio di un altro desiderio, desiderio di far riconoscere
dall’altro il proprio desiderio.
Negli ultimi anni della sua vita Lacan non ha nascosto il suo lucido pessimismo. Non ci
sono ricette per la vita, egli ripeteva. «L’uomo è dilacerato dalla sua condizione. Non
esistono ricette che lo riconcilino in nessun modo con alcunché.» Che cosa si può sperare?
Lacan risponde così:
Assolutamente niente. Non vi è alcuna specie di speranza. Almeno io, io non ne ho.
E non c’è speranza di raggiungere una teoria che «assegni un posto preciso, definitivo, a
ciascuno degli elementi tra i quali l’uomo è dilacerato».
È anche di un certo interesse notare che, sempre negli ultimi anni, Lacan confessava di
aver perduto il suo duello più importante, quello con la Chiesa cattolica:
La stabilità della religione viene dal fatto che il senso è sempre religioso.
[La religione] è fatta apposta per guarire gli uomini; ovvero fatta apposta perché
non si accorgano di quel che non va.
Il «senso» è sempre religioso. Per questo la religione vince nei confronti della
psicoanalisi: questa, con la scoperta dell’inconscio, illumina la dispersione del senso e le
dilacerazioni incomponibili dell’io.
PERCHÉ PER LO STRUTTURALISMO L’UOMO È
MORTO

V
Se gli strutturalisti si fossero limitati alla scoperta e alla prova di strutture o leggi o insiemi
di leggi governanti fenomeni antropologici, economici, storici o psichici – come, per altro
verso, è anche il caso delle strutture semiologiche di Roland Barthes (1915-1980), o se
vogliamo pure dello strutturalismo di Jean Piaget (1896-1980) – essi verosimilmente non
costituirebbero, alla fin fine, un grosso problema per la filosofia. Senonché, almeno i
cosiddetti «quattro moschettieri» dello strutturalismo, e cioè Althusser, Lévi-Strauss,
Foucault e Lacan, non hanno concepito lo strutturalismo soltanto come un principio
euristico, come un comodo metodo per guardare pezzi di realtà o aspetti della realtà in
modo da evidenziare strutture latenti ordinatrici ed esplicative di ampie zone di fenomeni
privi di ordine e quindi non compresi. Il fatto è che gli strutturalisti presi in considerazione
in questo capitolo (per Althusser si veda il capitolo dedicato al marxismo dopo Marx nel
volume VIII) sono andati oltre: hanno formulato genuine teorie filosofiche sulla storia e
sull’uomo e, ciò facendo, non solo si sono messi contro tutte le filosofie storiciste
(idealismo, marxismo ecc.) che vedono nella storia una continuità incarnante una
«ragione» (per lo più evolutiva e progressiva), ma si sono configurati come una forza
d’urto contro una concezione dell’uomo visto quale persona o comunque quale soggetto
libero, cosciente, autodeterminabile, responsabile, creativo e che con il suo impegno, la
sua intelligenza e la sua volontà, crea la storia.
Gli strutturalisti hanno appunto cercato di mandare in frantumi l’immagine dell’uomo
tipica sia della tradizione cristiana, sia della tradizione coscienzialistica e idealistica che da
Cartesio arriva fino ai nostri giorni, sia della tradizione etico-politica occidentale (in parte
anche marxista) che nell’impegno, nella coscienza e nella volontà umana ha sempre scorto
il motore della storia.
Per Althusser la difesa dell’umanismo significa unicamente chiudere gli occhi dinanzi alle
fondamentali scoperte «scientifiche» di Marx. Questi avrebbe, fuor d’ogni dubbio,
mostrato in che modo la struttura determina i soggetti umani. Sono i rapporti reali di
produzione a determinare i rapporti illusori o ideologici fra le coscienze: «gli individui –
scrive Althusser – sono soltanto gli effetti della struttura» e «il soggetto non è altro che il
supporto dei rapporti di produzione». L’etica della volontà e dell’impegno è, secondo
Althusser, unicamente un inganno di più, ideologia: «la morale è nella sua essenza
ideologica».
Da parte sua, Lacan ha voluto dire che, dopo quelle dovute a Copernico e a Darwin, Freud
ha inferto all’«uomo» la terza grande umiliazione, giacché proprio con Freud sappiamo
che l’uomo è agito, è vissuto, è abitato da un inconscio che lo percorre, che parla e che
l’uomo non intende.
Qui Lacan si avvicina a Heidegger. Il soggetto e la coscienza non stanno più al centro del
mondo dell’uomo: la coscienza è «dislocata», il soggetto è «decentrato», c’è un altro
centro che parla e struttura la coscienza. L’inconscio non è il luogo di istinti rissosi e
brutali che devono venir ammansiti da quel domatore che è la coscienza razionale:
l’inconscio è la voce vera dell’essere umano che bisogna saper ascoltare. L’inconscio non
è il borbottamento inopportuno o il grido rabbioso di istinti incarcerati: esso è il vero
linguaggio dell’umanità. «Io penso dove non sono, sono dove non penso.»
Ed ecco che cosa ha detto Foucault, in una conversazione con Paolo Caruso, a proposito
del pensiero antropologico-umanistico tradizionale:
L’uomo non è più Mi pare che questo pensiero stia disfacendosi,
soggetto di se disgregandosi sotto i nostri occhi. In gran parte
stesso ciò è dovuto all’orientamento strutturalista. Dal
momento in cui ci si è accorti che ogni
conoscenza umana, ogni esistenza umana, ogni
vita umana, e forse persino ogni ereditarietà biologica dell’uomo, è presa all’interno
di strutture, cioè all’interno di un insieme formale di elementi obbedienti a relazioni
che sono descrivibili da chiunque, l’uomo cessa, per così dire, di essere il soggetto di
se stesso, di essere in pari tempo soggetto e oggetto. Si scopre che quel che rende
l’uomo possibile è in fondo un insieme di strutture che egli, certo, può pensare, può
descrivere, ma di cui non è il soggetto, la coscienza sovrana. Questa riduzione
dell’uomo alle strutture che lo circondano mi sembra caratteristica del pensiero
contemporaneo.
La storia dell’uomo non è scritta (cioè fatta) dall’uomo; essa è decisa altrove:
In che senso la Come può l’uomo coincidere con una vita la
storia dell’uomo è quale con le sue maglie, le sue pulsazioni, la sua
decisa altrove forza nascosta, trascende senza posa l’esperienza
immediata in cui egli la coglie? – Come può
identificarsi con un lavoro le cui esigenze e leggi
si impongono a lui con un rigore che sente estraneo? Come può essere l’autore di un
linguaggio che da millenni si forma senza di lui, del quale non riesce a comprendere
il sistema […] e all’interno del quale è costretto a collocare le sue parole e i suoi
pensieri, come se questi non potessero far altro che animare per breve tempo un
segmento della trama infinita delle possibilità?
L’uomo, per Foucault, è uno scintillio, un fugace luccichio nell’oceano delle possibilità
permesse da quelle correnti profonde che sono le strutture. Anzi, secondo Foucault,
prima della fine del secolo XVIII, l’uomo non esisteva, non diversamente dalla forza
vitale, dalla fecondità del lavoro, dalla dimensione storica del linguaggio. È una
creatura recentissima, uscita dalle mani demiurgiche del sapere meno di duecento
anni fa.
E perché possano esistere le scienze dell’uomo, così come oggi si configurano,
l’immagine dell’uomo che ci è consueta deve sparire. Anzi, scrive ancora Foucault ne Le
parole e le cose:
Oggi possiamo pensare soltanto nel vuoto lasciato dalla scomparsa dell’uomo.
E soggiunge che a tutti coloro che intendono parlare ancora dell’uomo, del suo regno e
della vera liberazione, noi contrapponiamo il nostro «riso filosofico»:
L’uomo è L’uomo è un’invenzione che l’archeologia del
un’invenzione nostro pensiero non ha difficoltà ad assegnare a
recente che sta per un’epoca recente. E forse neanche a dichiararne
scomparire prossima la fine […]. Ai nostri giorni, piuttosto
che l’assenza o la morte di Dio viene proclamata
la fine dell’uomo […]. L’uomo sta per
scomparire.
Come già sappiamo, lo scopo della ricerca di Lévi-Strauss è stato quello di «trasformare le
“scienze umane” in scienze». Ma la realizzazione di questo scopo ha comportato
l’inserimento del soggetto (dell’uomo, della coscienza o della persona) in schemi rigidi.
Sono questi schemi, cioè le strutture, che ci fanno comprendere, scrive Lévi-Strauss in
Tristi Tropici, «l’essere come realmente è, non come ci appare». Ed è così che la coscienza
diventa «il nemico nascosto delle scienze umane». E si capisce anche perché, parlando
della fenomenologia e dell’esistenzialismo, Lévi-Strauss affermi quanto segue:
Quel promuovere preoccupazioni personali alla dignità di problemi filosofici, rischia
troppo di condurre a una metafisica da donnette […].
La fenomenologia e In luogo di abolire la metafisica, la
l’esistenzialismo portano a una fenomenologia e l’esistenzialismo introducono
filosofia da donnette due metodi per creare degli alibi.
Esistono, per Lévi-Strauss, strutture e norme (sociali, mitiche o linguistiche) autonome
dalla volontà umana. E, se si studia l’uomo scientificamente, se cioè si indagano i prodotti
dell’attività umana con metodo scientifico, allora non si costituisce l’uomo, esso viene
«dissolto». L’uomo non è il padrone della propria storia. Egli non agisce, è agito da forze
strutturanti inconsce. L’uomo, ha detto Foucault, sta per scomparire. E Lévi-Strauss
aggiunge:
All’inizio del mondo l’uomo non c’era; non ci sarà neanche alla fine.
È IRRAZIONALE IL RAZIONALISMO
STRUTTURALISTICO?

VI
Un programma scientifico non può venir confuso con un risultato metafisico

L’antiumanismo degli strutturalisti è stato così denunciato da Mikel Dufrenne:


Fra concezioni disparate quali l’ontologia di Heidegger, lo strutturalismo di Lévi-
Strauss, la psicoanalisi di Lacan, o il marxismo di Althusser, c’è una tematica
comune che, in sostanza, si fonda sull’abolizione del senso vissuto e sulla
dissoluzione dell’uomo.
Naturalmente, la provocazione filosofica strutturalista non è passata indenne nell’arena del
pensiero contemporaneo e ha subito attacchi da più parti, e non solo dalla sponda di quei
filosofi che, in un modo o nell’altro, hanno voluto ribadire la centralità dell’uomo libero e
artefice di storia.
A prescindere da osservazioni critiche più dettagliate e concernenti, per esempio, questioni
di precisazione su fatti storici, il principale rimprovero è stato quello di aver
metafisicizzato (ontologicizzato) quello che può essere un buon principio euristico: un
conto è, infatti, dire che «cerchiamo strutture latenti in grado di render conto
scientificamente di questi o quei fatti», e un altro conto è, invece, sostenere che «quelle o
queste altre strutture sono la realtà, sono strutture assolute».
Un programma scientifico non deve venir confuso con un risultato metafisico, e «se non si
distinguono i due atteggiamenti mentali, si arriva (dopo tante polemiche contro
l’irrazionalismo del “vissuto”) a identificare la scienza con la religione: non per nulla
Lévi-Strauss accenna a più riprese, con un brivido di mistero, a “quell’ospite presente tra
noi, benché nessuno si sia sognato di invitarlo alle nostre discussioni: lo spirito umano”.
In realtà, questo ospite o, come lo chiama subito dopo Lévi-Strauss, questo “fantasma
imprevisto”, si è sempre tenuto lontano dalle discussioni scientifiche serie: se interviene
alle sedute spiritiche di antropologia strutturale, non ci vuol molto a indovinare chi lo ha
evocato. A che serve, allora, esaltare lo strutturalismo come una reazione contro il
bergsonismo e contro l’idealismo soggettivo, se codesta reazione ha il solo risultato di
farci approdare a un idealismo oggettivo, per di più carico di toni romantico-
esistenzialisti?» (Sebastiano Timpanaro).

Didier Anzieu, Jean Piaget e Jean-Paul Sartre critici di Lacan e Foucalt

Per quanto riguarda più specificamente Lacan, a parte il fatto che fu radiato dalla Società
psicoanalitica internazionale, la pubblicazione dei suoi Scritti ha provocato un’ondata di
critiche. Così, tanto per esemplificare, lo psicologo francese Didier Anzieu ha fatto
presente che gli Scritti di Lacan non ci insegnano nulla di nuovo, che lo stadio dello
specchio è un abbaglio, che l’ortodossia freudiana di Lacan è un mito, che nessuno si è
allontanato da Freud quanto Lacan. Benché Lacan sia stato e venga idolatrato dai
«lacaniani», per Didier Anzieu davanti al naufragio intellettuale di Lacan si può provare
solo malinconia.
Con Jean Piaget diciamo che le strutture epistemiche di Foucault non si distinguono, in
fondo, dai «paradigmi» di cui parla Thomas Kuhn nella sua Struttura delle rivoluzioni
scientifiche. E le critiche che si possono fare a Kuhn si possono ripetere per Foucault.
Difatti, scrive Piaget:
Le epistemai successive non possono essere dedotte l’una dall’altra né formalmente,
né dialetticamente, e non procedono l’una dall’altra per filiazione, né genetica, né
storica. In altri termini, l’ultima parola di una «archeologia» della ragione è che la
ragione si trasforma senza ragione e che le sue strutture appaiono e scompaiono per
mutazioni fortuite o emergenze momentanee, nello stesso modo in cui ragionavano i
biologi prima dello strutturalismo cibernetico contemporaneo.
Foucault, secondo Piaget, è in fin dei conti un irrazionalista. E, analogamente a Piaget,
proprio Sartre, contro il quale si sono rivolte le critiche più aspre degli strutturalisti
(«Sartre è prigioniero del suo Cogito», ha scritto Lévi-Strauss), ha ripagato gli
strutturalisti con la loro stessa moneta accusandoli di essere prigionieri di schemi per
niente affatto esplicativi. Per esempio, dice Sartre, Foucault non ci rivela gli aspetti più
interessanti, vale a dire «il modo in cui gli uomini passano da un pensiero all’altro».
È così, pertanto, che si è cercato di smascherare gli esiti irrazionalistici di una filosofia che
in nome di una «ragione nascosta» ha preteso di condannare la «ragione cosciente».
Interpretazione del bacio dal romanticismo a oggi
Francesco Hayez (1791-1882), Il bacio. Milano, Pinacoteca di Brera
Franz von Stuck (1863-1928), Il bacio della sfinge. Budapest, Szepmuveszen Muzeum
Gustav Klimt (1862-1918), Il bacio. Vienna, Österreichische Galerie Belvedere
Interpretazione del bacio dal romanticismo a oggi

Pablo Picasso (1881-1973), Il bacio. Collezione privata


George Grosz (1893-1959), Circe. New York, Museum of Modern Art
Auguste Rodin (1840-1917), Il bacio. Parigi, Musée Rodin
Constantin Brancusi (1876-1957), Il bacio. Filadelfia, Philadelphia Museum of Art

PARTE QUARTA

SVILUPPI DELLA TEORIA ECONOMICA DAL MARGINALISMO


AUSTRIACO A JOHN KEYNES

Solo l’individuo pensa: solo l’individuo ragiona; solo l’individuo agisce.


Ludwig von Mises
Chi controlla tutti i mezzi stabilisce tutti i fini.
Friedrich von Hayek
Il liberalismo non è nella sua essenza un abbandono del cristianesimo, bensì è il suo figlio spirituale.
Wilhelm Röpke
Lo Stato dovrà esercitare una funzione direttiva sulla propensione verso il consumo, in parte attraverso
il fisco, in parte attraverso il saggio d’interesse, e forse in altri modi ancora.
John Keynes
LA SCUOLA AUSTRIACA DI ECONOMIA

I
Il rifiuto della teoria del valore-lavoro

Un nucleo teorico fondamentale dell’economia classica di Adam Smith e David Ricardo è


dato dalla teoria del valore-lavoro, dall’idea cioè che il valore di una merce dipenda dal
lavoro socialmente necessario per produrla: così, se per produrre un tavolo due operai
hanno impiegato cinque ore, il tavolo potrà essere scambiato sul mercato con qualsiasi
altra merce prodotta in cinque ore da due operai.
Sappiamo che Karl Marx ha assunto l’idea del valore-lavoro come base della sua
costruzione teorica, nella quale egli si spingeva a profetizzare l’imminente avvento di una
rivoluzione che avrebbe abolito la proprietà privata e instaurato la società comunista.
Il primo volume de Il Capitale appare nel 1867. Ebbene, nel 1871 Carl Menger (1840-
1921) pubblica a Vienna i Principi di economia politica; nello stesso anno appare in
Inghilterra la Teoria dell’economia politica di William Stanley Jevons (1835-1882); e nel
1874 vengono pubblicati in Francia gli Elementi di economia politica pura di Léon Walras
(1834-1910).
Con l’opera di questi tre autori era nata l’economia neoclassica, una corrente di pensiero
nota anche come marginalismo, la cui pars destruens consiste nel rifiuto della teoria del
valore-lavoro, mentre la pars construens sta nella proposta della legge dell’utilità
marginale decrescente e nelle sue rilevantissime conseguenze. Scrive Carl Menger nei
Principi di economia politica:
La teoria secondo la quale la quantità di lavoro impiegata per produrre un bene ovvero il suo costo
di produzione regolano il rapporto di scambio tra i beni, che doveva spiegare il fenomeno dei prezzi, si
dimostrò contraria all’esperienza e decisamente insufficiente in seguito a un esame più approfondito.
Moltissime cose, malgrado il lavoro impiegato a
La teoria del valore- produrle e gli alti costi di produzione, raggiungono prezzi
lavoro è molto bassi e talvolta non ottengono alcun prezzo, mentre
spesso i beni che ci vengono offerti dalla natura
insostenibile raggiungono prezzi elevati […]. I formulatori della teoria
economica non possono non aver pensato talvolta che il
prezzo che paghiamo per un bene non dipende dal lavoro o dai costi della sua produzione ma che, al
contrario, impieghiamo lavoro e capitali per produrre beni che pensiamo di vendere a prezzi
vantaggiosi.

Sul medesimo argomento Jevons, nella Teoria dell’economia politica, afferma:


È un fatto che il lavoro, una volta che sia stato speso, non ha più influenza sul valore
futuro di un oggetto: esso è scomparso e si è per sempre perduto.

La legge dell’utilità marginale decrescente


La dimostrazione dell’inconsistenza e dell’impotenza esplicativa della teoria del valore-
lavoro è il primo tratto caratteristico dell’economia neoclassica, mentre la legge dell’utilità
marginale decrescente ne è il secondo. In realtà il punto di riferimento costante del
marginalismo è costituito dal consumo: è la soddisfazione dei bisogni «l’angolo visuale da
cui la teoria deve guardare lo svolgersi dell’attività economica per comprendere le leggi
che la regolano» (Enrico Saltari). E questi bisogni vengono colti, come è ovvio, sul piano
individuale.

Carl Menger

Tutti i beni e i servizi possono essere più o meno utili. E l’utilità di una merce (o di un
servizio) consiste nella soddisfazione che il proprietario o il destinatario ne ricava. Ciò
premesso, vediamo che man mano che «un individuo acquisisce unità aggiuntive di una
merce, aumenta la soddisfazione o utilità totale che ne ricava, ma non in misura
proporzionale: essa aumenta cioè a un tasso decrescente, fino a un massimo finale al di là
del quale l’aggiunta di unità non solo non frutta più alcuna utilità, ma addirittura disutilità
(le nuove unità aggiunte sono cioè di ostacolo, danno fastidio o sono sgradevoli)» (Arthur
Seldon - Fred G. Pennance).
Così, per portare un esempio, se abbiamo sete e beviamo un primo bicchiere d’acqua,
questo ci procura una grande dose di piacere o di utilità. Beviamo un secondo bicchiere, è
utile, ancora. Se ne prendiamo un terzo, è chiaro che la sua utilità diminuisce. E diminuirà
sempre di più sinché arriveremo al punto in cui un altro bicchiere di acqua procurerà
fastidio. L’utilità di ogni singolo bicchiere che addizioniamo al nostro consumo decresce
fino allo zero o addirittura fino al raggiungimento di valori negativi. Una bistecca è
utilissima per un denutrito, è inutile per un vegetariano.
E per lo stesso individuo un bene può avere più o meno utilità a seconda della quantità in
cui esso è disponibile: 10 dollari valgono niente per un miliardario, ma hanno un valore
inestimabile per un affamato senza un quattrino. E ancora, ha scritto Alfred Marshall:
Un ricco che sia in dubbio se spendere uno scellino per un solo sigaro, sta
soppesando fra di essi piaceri più piccoli di un povero il quale sia indeciso se
spendere uno scellino per una scorta di tabacco che gli durerà un mese.
Tutte queste considerazioni trovano la loro espressione nella legge dell’utilità marginale
decrescente, la quale afferma, in termini generali, che «nella misura in cui il consumo di
una merce da parte di un individuo aumenta in rapporto al suo consumo di altre merci,
l’utilità marginale della merce in questione – a parità di condizioni – tenderà a diminuire
rispetto all’utilità marginale delle altre merci consumate» (A. Seldon - F. G. Pennance).
Ed è in base a tale legge che si comprende subito, per esempio, la ragione per cui le
quantità sovrabbondanti di una merce hanno prezzi bassi; o si spiega la ripartizione della
spesa che un individuo fa tra differenti beni; o ancora l’uso ottimale delle risorse in un
sistema economico. In conclusione (W.S. Jevons):
Il valore [di una merce] dipende unicamente dal grado finale di utilità
O, con le parole di Carl Menger:
Il valore di una unità della quantità di un bene disponibile per un individuo è uguale
all’importanza della più debole soddisfazione mediante un’unità della quantità totale
del bene.

Le quattro generazioni della scuola austriaca di economia

Carl Menger è stato il fondatore della scuola austriaca di economia. Sui suoi Principi di
economia politica (1871) si sono formati numerosi discepoli. Nel 1883 Menger pubblica
le Ricerche sul metodo delle scienze sociali e in particolare dell’economia politica. Qui
egli, innanzitutto, ribadisce il primato della teoria economica. Fa questo contro le
concezioni della «giovane» scuola storica tedesca dell’economia e del suo leader
riconosciuto Gustav Schmoller – concezioni che riducono lo studio dell’economia a
ricerche di storia di fatti economici. Senza teoria economica, afferma Menger, non c’è né
spiegazione di fatti economici, né previsione.
Menger, inoltre, mette in evidenza il fatto delle inevitabili conseguenze inintenzionali
delle azioni umane intenzionali, e fa vedere come la maggior parte delle istituzioni sociali
– specie le più importanti (il linguaggio, la moneta, la formazione di molte città, lo Stato,
il mercato ecc.) – siano proprio l’esito inintenzionale delle azioni umane dirette ad altro
scopo.
Schmoller reagì violentemente, in una recensione del libro di Menger, nei riguardi delle
tesi di quest’ultimo; e Menger replicò a Schmoller con un saggio pieno di sarcasmo,
scritto sotto forma di lettere a un amico: Gli errori dello storicismo (1884).
Non discepoli, ma seguaci convinti ed entusiasti di Menger furono Eugen von Böhm-
Bawerk (1851-1914) e Friedrich von Wieser (1851-1926). Böhm-Bawerk è autore della
monumentale opera: Capitale e interesse: vol. I Storia e critica delle teorie dell’interesse
del capitale (1884); vol. II Teoria politica del capitale (1889). Del 1896 è La conclusione
del sistema marxiano, lavoro che è stato definito come il più potente attacco mai sferrato
contro l’economia marxista.
Di Wieser è la Teoria dell’economia sociale (1914), un trattato sistematico concernente la
determinazione del valore non solo nel caso del mercato di concorrenza perfetta, ma anche
nel caso dell’economia sociale. In questo libro vengono discussi problemi di finanza
pubblica e questioni connesse alle scelte di un ministro socialista della produzione. Altra
opera di Wieser è: La legge del potere (1926). Noto a un pubblico più ampio è il suo
saggio: La fine dell’Austria (1919).
Menger, dunque, rappresenta la prima generazione della scuola austriaca di economia. La
seconda generazione è rappresentata da Böhm-Bawerk e Wieser. Ludwig von Mises
(1881-1973) è certamente il rappresentante più illustre della terza generazione.
Allievo di Böhm-Bawerk, Mises è autore di opere che hanno lasciato il segno non solo in
economia, ma anche nel più vasto ambito della sociologia e della riflessione politica.
Teoria della moneta e del credito è del 1913; Socialismo appare nel 1923; L’azione umana
è del 1940; del 1944 sono Lo Stato onnipotente e Burocrazia; La mentalità
anticapitalistica esce nel 1956.
Di grande rilievo è la teoria, proposta in Socialismo, stando alla quale l’economia
socialista – cioè l’economia che ha abolito la proprietà privata dei mezzi di produzione – è
impraticabile e votata necessariamente al fallimento: l’economia a pianificazione
centralizzata è priva di quella bussola che, nell’economia di mercato, è il calcolo
economico (il calcolo dei costi e benefici) basato sui prezzi di mercato (indicanti
preferenze dei consumatori e scarsità o meno di merci). È così, appunto, che l’economia
pianificata produce il disastro economico e, simultaneamente, la corruzione più sfrenata e
l’arbitrio incontrollato dei governanti sui governati.
Insieme alla tesi dell’impraticabilità del socialismo, un’ulteriore posizione difesa da Mises
è quella dell’individualismo metodologico. Mises, sia in Socialismo sia, ancor più, ne
L’azione umana, mette continuamente in guardia contro la tendenza a ipostatizzare – cioè
ad attribuire sostanza ed esistenza reale a – concetti collettivi come: la nazione, il partito,
lo stato, la società, la setta eccetera. A questi concetti, afferma Mises, non corrisponde
nella realtà effettiva proprio niente. Non esiste il partito come entità distinta, autonoma e
magari superiore a individui che hanno abbracciato certe idee e che agiscono
coerentemente con queste idee. I collettivisti pensano che ai concetti corrispondono delle
realtà sostanziali; essi reificano, fanno diventare cose, quelli che invece sono concetti
astratti, stenogrammi per individui con determinate idee e che fanno certe cose. Un tale
reificazione dei concetti collettivi significa, nella pratica politica, l’annullamento
dell’individuo. Ma la verità – sostiene con decisione Mises – è che
solo l’individuo pensa; solo l’individuo ragiona; solo l’individuo agisce.
E se l’individuo non ha libertà economica – se cioè non esiste la proprietà privata dei
mezzi di produzione –, non sarà possibile nessun’altra libertà. Nella società capitalistica,
nella società in cui vige l’economia di mercato, sovrani sono i consumatori: se la gente
desidera leggere la Bibbia invece che i libri gialli, il mercato deve produrre copie della
Bibbia:
Il nesso Non appena la libertà economica […] è rimossa,
indissolubile tra tutte le libertà politiche e la carta dei diritti
libertà economica e diventano inganno […]; la libertà di stampa è un
libertà politiche puro inganno se l’autorità controlla tutti gli
uffici-stampa e le cartiere.
Non c’è libertà senza mercato:
[L’eliminazione del mercato] toglie ogni libertà e lascia all’individuo unicamente il
diritto di obbedire.
Lo Stato di diritto trova il suo fondamento nell’economia di mercato.
Allievo di Wieser e di Mises è stato Friedrich August von Hayek, il rappresentante più
noto della quarta generazione della scuola austriaca, alla quale appartengono anche altri
illustri economisti quali Fritz Machlup, Oskar Morgenstern e Gottfried Haberler.
IL LIBERALISMO DI VON HAYEK

II

La vita e le opere

Friedrich August von Hayek nasce a Vienna nel 1899. Nel 1917 è ufficiale di artiglieria nell’esercito
austriaco. Dopo aver combattuto in Italia, sul fronte del Piave, rientra a Vienna, dove si iscrive alla facoltà
di legge. Nel 1921 si laurea in legge, e nel 1923 in scienze politiche. Nello stesso anno si reca in America;
qui alla Columbia University di New York frequenta le lezioni di Wesley Clair Mitchell sulla storia del
pensiero economico e partecipa anche al seminario di John Bates Clark. Nel 1927, a Vienna, fonda
insieme a Mises l’Istituto austriaco per la ricerca sul ciclo economico. Due anni dopo, nel 1929, Hayek
prende la libera docenza in economia e pubblica il suo primo libro: Teoria della moneta e teoria della
congiuntura.
Nel 1931 presso la London School of Economics, su invito di Lionel Robbins, Hayek tiene quattro
lezioni sul tema Prezzi e produzione. Ottiene qui un posto di professore e così resta in Inghilterra, deciso
antagonista di John Maynard Keynes, per ben diciotto anni. Nel 1935 Gottfried Haberler attira l’attenzione
di Hayek sulla Logica della scoperta scientifica di Karl Popper. Hayek trovò nell’opera pensieri molto vicini
ad alcune sue riflessioni sulla natura della scienza. Per questo egli invitò Popper alla London School a
leggere il suo scritto Miseria dello storicismo. Fu questo l’inizio di un’amicizia durata tutta la vita.
Del 1937 è il saggio Economia e conoscenza, in cui Hayek espone per la prima volta la sua idea della
divisione della conoscenza tra milioni e milioni di uomini. Uno dei suoi libri più noti, Verso la schiavitù,
appare nel 1944: in esso Hayek mette a nudo le radici socialiste del nazismo e la totale inconsistenza
delle basi teoriche dello stesso socialismo. Tra il 1941 e il 1944 scrive i saggi che poi, nel 1952,
confluiranno (con l’aggiunta di uno scritto su Comte ed Hegel del 1951) nel libro Abuso della ragione,
opera intesa a gettare discredito sulla idea scientista stando alla quale l’uomo può creare e mutare le
istituzioni secondo i suoi piani, a volontà.
Il tema della dispersione della conoscenza viene ripreso da Hayek nel saggio del 1945: L’uso della
conoscenza nella società. Del 1946 è Individualismo: quello vero e quello falso, saggio incluso nel 1949
nel volume Individualismo e ordine economico. Intanto nel 1947 Hayek, insieme, tra altri, a Mises, Milton
Friedman e Karl Popper, fonda la Mont Pèlerin Society.
Il 1949 è anche l’anno in cui Hayek lascia la London School of Economics per trasferirsi all’università
di Chicago. Pubblica L’ordine sensoriale (1952), un lavoro in cui viene avanzata una originale spiegazione
sul rapporto mente-cervello. Storia e politica è il titolo dell’Introduzione che Hayek premette al volume
collettivo Il capitalismo e gli storici; in tale saggio, egli sottolinea il fatto che la tesi marxista, secondo la
quale la condizione della classe operaia sarebbe peggiorata con l’avvento del capitalismo, è una tesi
completamente confutata dai fatti. La società libera, un’opera definita da Sergio Ricossa «un classico della
libertà», è del 1960.
Due anni dopo, nel 1962, Hayek torna in Europa, e va a insegnare economia politica all’università di
Friburgo in Brisgovia. La raccolta di saggi Studi di filosofia, politica ed economia viene pubblicata nel
1967; nel 1978, invece, appare l’altra raccolta di saggi: Nuovi studi di filosofia, politica, economia e storia
delle idee. I tre volumi di quella che forse è l’opera più importante di Hayek, Legge, legislazione e libertà,
appaiono in quest’ordine: 1. Regole e ordine (1973); 2. Il miraggio della giustizia sociale (1976); 3. Il
sistema politico di un popolo libero (1979).
Il 1974 è l’anno in cui Hayek viene insignito del premio Nobel. La sua opera più recente è apparsa nel
1988: si tratta de La presunzione fatale. Gli errori del socialismo, un libro da cui emerge che il socialismo è
l’esito del razionalismo costruttivistico e nel quale l’autore ribadisce la validità della sua concezione
evoluzionistica delle istituzioni sociali.
Testimone dell’avverarsi delle sue idee e delle sue previsioni sulla natura e gli sviluppi del socialismo,
Hayek è morto il 23 marzo 1992, a Friburgo in Brisgovia.


Friedrich August von Hayek

Le azioni coscienti come dati delle scienze sociali

Nell’Abuso della ragione Hayek afferma che le scienze sociali hanno a che vedere con le
idee che spingono gli individui ad agire. Qui occorre distinguere con molta attenzione e
decisione tra le opinioni motivanti o costitutive da una parte, e le concezioni speculative o
esplicative dall’altra. Motivanti o costitutive sono quelle idee o opinioni che, per esempio,
inducono gli esseri umani a produrre, vendere o comprare certe qualità di merci.
Speculative o esplicative sono, invece, le idee che «la mente popolare ha elaborato a
proposito di entità collettive come “società” o “sistema economico”, “capitalismo” o
“imperialismo” ecc.». Ebbene, lo scienziato sociale deve «astenersi […] dal trattare alla
stregua di “fatti” queste entità astratte»; piuttosto,
[lo scienziato sociale deve] prendere sistematicamente le mosse dalle concezioni
I dati delle scienze sociali sono dalle quali gli uomini sono indotti all’azione, e
le idee che muovono gli uomini non dai risultati delle loro teorizzazioni sulle
all’azione
proprie azioni.
I fatti o dati delle scienze sociali sono le credenze e gli atteggiamenti degli individui, le
idee che li muovono all’azione. Lo scienziato sociale non deve spiegare l’azione
cosciente, non sta a lui indagare perché un individuo preferisce una cosa o un’altra
persona fabbrica una certa merce. Lo scienziato sociale non esercita il mestiere dello
psicologo. Le azioni coscienti sono per lui i dati da cui partire per rendere conto dei
fenomeni sociali più complessi. Come si vedrà tra poco, compito esclusivo delle scienze
sociali è, per Hayek, l’analisi delle conseguenze inintenzionali delle azioni umane
intenzionali.
Con tutto ciò siamo in pieno individualismo metodologico, concezione alla quale si
oppone il collettivismo metodologico, con la sua tendenza a vedere delle realtà sostanziali
dietro a concetti collettivi come società, classe, nazione, economia, capitalismo eccetera. Il
collettivismo metodologico – scrive Hayek – è un errore bell’e buono consistente nel
«considerare alla stregua dei fatti quelle che non sono altro che teorie provvisorie». È un
grave errore «trattare come fatti quelle che sono tutt’al più vaghe teorie popolari». Il
collettivismo metodologico è realismo ingenuo: tratta come oggetti reali quelli che invece
sono costrutti mentali, e «acriticamente presume che, se certi concetti sono di uso
corrente, devono anche esistere in concreto proprio quelle “date” cose che essi
designano».

Gli errori del costruttivismo

Ad agire, dunque, non sono le entità collettive (la nazione, il socialismo, la setta);
agiscono sempre e solo individui. Ora, però, come già messo in luce, tra altri, da Bernard
de Mandeville (1670-1733) nella sua paradossale Favola delle api – la cui morale è che
dai vizi privati possono scaturire pubblici benefici –, le azioni umane intenzionali
producono conseguenze inintenzionali. Questa, secondo Hayek, è una scoperta di primaria
importanza, giacché devasta la pericolosa pretesa di quegli pseudorazionalisti che sono i
costruttivisti.
Il costruttivismo consiste nell’idea per cui «l’uomo, dato che ha creato egli stesso le
istituzioni della società e della civiltà, deve anche poterle alterare a suo piacimento in
modo che soddisfino i suoi desideri o le sue aspirazioni». Questo scrive Hayek nel saggio
Gli errori del costruttivismo (ora incluso nei Nuovi studi); ma sul tema del costruttivismo
egli torna di continuo per ribadire che gli eventi sociali sono sì sempre frutto dell’azione
umana, ma non sempre esiti di progetti intenzionali. Cartesiani, illuministi e positivisti,
dice Hayek, sono stati tutti costruttivisti: non hanno usato la ragione, ne hanno abusato. Di
costruttivismo Hayek accusa il suo maestro Hans Kelsen, per il quale il diritto si risolve in
«una costruzione deliberata a servizio di determinati precisi interessi». Il costruttivismo è
una malattia che ha intaccato vasti settori della psichiatria e della psicologia e l’«intero»
socialismo.
E se per Menger l’analisi delle conseguenze inintenzionali delle azioni umane intenzionali
è un compito delle scienze sociali, per Hayek una tale analisi è il compito esclusivo delle
scienze sociali.
Ciò per la ragione che gli esiti intenzionali di un progetto, quando il progetto riesce, sono
scontati, non fanno problema.
Il compito delle È solo nella misura in cui un certo tipo di ordine
scienze sociali emerge come risultato dell’azione dei singoli, ma
senza essere stato da alcuni di essi
coscientemente perseguito, che si pone il
problema di una loro spiegazione teorica.

Perché la pianificazione centralizzata è destinata al fallimento

L’intero socialismo è malato di costruttivismo. E, difatti, la pianificazione economica


centralizzata – tipica di ogni società che abbia abbracciato il socialismo – è una chiara
conseguenza dell’atteggiamento «scientista», razionalistico e costruttivistico. Hayek,
tuttavia, fa presente che la pianificazione centralizzata non può riuscire nelle sue finalità,
giacché non potrà mai utilizzare tutta quella enorme quantità di conoscenze teoriche e
pratiche, «conoscenze di circostanze particolari di tempo e di luogo», che sono diffuse tra
milioni e milioni di uomini. Così, scrive Hayek in L’uso della conoscenza nella società:
Il teorema della Conoscere e mettere in uso una macchina non
dispersione delle pienamente utilizzata o le capacità di qualcuno
conoscenze di che potrebbero essere impiegate meglio, o essere
situazioni particolari a conoscenza dell’esistenza di scorte in eccesso a
di tempo e di luogo cui si può attingere durante un’interruzione dei
rifornimenti, è socialmente altrettanto utile
quanto conoscere tecniche alternative migliori.
Lo spedizioniere marittimo che si guadagna da
vivere utilizzando viaggi vuoti o mezzi pieni di carrette a vapore, o l’agente
immobiliare la cui conoscenza si limita quasi esclusivamente a quella di occasioni
temporanee, o l’arbitrageur che trae i suoi guadagni dalle differenze locali dei prezzi
delle merci, tutti svolgono funzioni utili basate sulla particolare conoscenza di
circostanze legate all’attimo fuggente e ignota agli altri.
Ciò premesso, se è vero che per deliberare bisogna conoscere, è ovvio che le decisioni
finali debbono essere lasciate alle persone che sono a conoscenza delle particolari
circostanze di tempo e di luogo, che hanno «conoscenza diretta dei cambiamenti rilevanti
e delle circostanze immediatamente disponibili per farvi fronte».
La conseguenza di tali considerazioni è che la pianificazione centralizzata va abbandonata,
perché unicamente il decentramento può utilizzare nel miglior modo concepibile le
conoscenze disperse tra gli individui. E in un sistema in cui la conoscenza di fatti rilevanti
è decentrata, dispersa tra molte persone, solo «i prezzi possono servire a coordinare le
azioni separate di persone differenti».
Il sistema dei prezzi è una efficientissima macchina per comunicare agli interessati le
informazioni essenziali: su di un prodotto che non va, su certe risorse scarse, su metodi di
produzione meno costosi e così via.
E c’è di più. Difatti, se la soluzione dei problemi dipende dal miglior uso delle
conoscenze, allora dovremo far sì che sia possibile sperimentare una grande varietà di
differenti modi nel fare le cose, per scegliere poi quelli migliori. Questo vuol dire, fa
presente Hayek, che la concorrenza, nella scienza ma anche nel mondo degli affari, è la
procedura più efficace per scoprire il nuovo. Ma questo significa anche che la libertà
poggia sulla nostra ignoranza. È questa una fondamentale tesi che Hayek propone ne La
società libera: la conoscenza è dispersa tra una moltitudine enorme di individui; ognuno di
noi sa poco; ma la soluzione dei problemi esige la proposta di molte idee e di critiche
acute; e quindi ognuno dev’essere libero di usare le sue conoscenze e di far valere le sue
capacità creative e critiche:
Perché la libertà è La libertà è essenziale per far posto
essenziale all’imprevedibile e all’impredicibile; ne abbiamo
bisogno perché, come abbiamo imparato, da essa
nascono le occasioni per raggiungere molti dei
nostri obiettivi.

Chi controlla tutti i mezzi stabilisce tutti i fini

La nostra libertà poggia sulla nostra ignoranza. E, in realtà,


se esistessero uomini onniscienti […], resterebbe poco da dire in favore della libertà.
In effetti, è facile constatare che la via della schiavitù è la via spianata dalla presunzione
della nostra ragione. E la presunzione fatale, l’errore di fondo del socialismo, sta nella sua
pretesa costruttivistica di poter plasmare secondo piani deliberati le istituzioni sociali e di
dirigerne gli sviluppi secondo intenzioni dichiarate. I socialisti, però, da costruttivisti quali
sono, hanno dimenticato quello che sa il senso comune, e cioè che di buone intenzioni
sono lastricate le vie dell’inferno. I socialisti intendono dominare il presente e fissare il
futuro; ma sfugge loro l’inevitabile insorgenza delle conseguenze inintenzionali delle
azioni umane intenzionali e non si rendono conto che
l’uomo non è e non sarà mai il padrone del proprio destino.
I socialisti hanno abolito la proprietà privata; hanno messo nelle mani di pochi potenti, in
genere di un solo potente, tutti i mezzi di produzione. Senonché, scrive Hayek in Verso la
schiavitù,
il controllo economico non è il semplice controllo di un settore della vita umana che
possa essere separato dal resto; è il controllo dei mezzi per tutti i nostri fini.
E in Liberalismo insiste:
Una qualsiasi forma di controllo economico, che conferisce potere sui mezzi,
conferisce al tempo stesso potere sui fini.

Per non confondere la legge con la legislazione


Come difendere, allora, la libertà degli individui? Questa, dice Hayek, si può difendere se,
accantonando l’arroganza costruttivistica, riusciremo ancora a mantenere la differenza tra
norme astratte (o leggi) e comandi specifici (o particolari). Le norme astratte o leggi sono
regole che fissano il confine entro cui «è data alla vita e all’attività di ciascun individuo
una sfera libera e sicura». La legge non è l’esito di progetti intenzionali. La legge è
l’insieme delle regole di giusta condotta, regole sorte per via spontanea, come il
linguaggio o la moneta, e a cui sono sottoposti tutti: è un comando che non riguarda
individui particolari, non si prefigge fini specifici, è a lungo termine, è nota e certa in
antecedenza, è uguale per tutti. Leggi del genere, astratte e generali, sono, per
esemplificare, le tre leggi indicate da Hume: nella stabilità del possesso, nella cessione per
comune consenso e nell’osservanza dei patti.
I comandi specifici o particolari sono invece quel che si chiama legislazione, e cioè i
provvedimenti amministrativi voluti da una maggioranza parlamentare e volti a fini
specifici, a soddisfare interessi particolari.
E va da sé che confondere la legge con la legislazione significa abbattere la difesa più
importante delle libertà individuali. Dove, come ai nostri giorni, parlamenti con poteri
illimitati, in nome di una «imprecisata» giustizia sociale, legiferano su tutto, la libertà è in
pericolo. Più di recente Hayek ha detto:
Quando i governi La maggioranza ha sostituito la legge, che a sua
diventano istituti di volta ha perso il suo significato: inizialmente
beneficenza principio universale, oggi è soltanto una norma
ricattati dagli mutevole destinata a servire interessi privati […]
elettori in nome della giustizia sociale! E la giustizia
sociale è una favola, una bacchetta magica:
nessuno sa in che cosa consista! Grazie a questo
termine vago, ogni gruppo si crede in diritto di
esigere vantaggi particolari dal governo. In realtà, dietro la «giustizia sociale» vi è
semplicemente il seme dell’attesa gettato nella mente degli elettori dalla generosità
dei legislatori verso determinati gruppi. I governi sono diventati degli istituti di
beneficenza esposti al ricatto degli interessi organizzati. Gli uomini politici cedono
tanto volentieri quanto più la distribuzione dei privilegi consente di comperare il
voto dei sostenitori.
Una situazione del genere erode lentamente la fede nell’ideale della democrazia. La
democrazia si è trasformata in una dittatura della maggioranza che si reputa senza vincoli
nei suoi poteri di legiferazione. Ma è chiaro un fatto:
la sovranità della legge e la sovranità di un parlamento illimitato sono inconciliabili.
E, proprio per tenere distinto l’ordine spontaneo della legge dall’ordine costruito della
legislazione, Hayek propone un modello costituzionale che egli chiama demarchia,
consistente in due organismi: una Assemblea legislativa (che sola può modificare le norme
astratte di mera condotta alle quali è affidata la difesa della libertà individuale), e una
Assemblea governativa, corrispondente agli attuali parlamenti, eletti periodicamente e che
esprimono comitati esecutivi della maggioranza (i governi) per la gestione degli affari.
Stato liberale e difesa dei più deboli

Dopo le precedenti considerazioni sulla logica di mercato, e dopo quello che Hayek ha
sostenuto sull’idea di giustizia sociale, diventa molto interessante vedere cosa Hayek
abbia da dire sulle funzioni dello Stato e la difesa dei più deboli. Hayek è persuaso che il
servizio postale statale è del tutto inefficiente; propone l’abolizione del monopolio
monetario statale («che è stato usato per defraudare e ingannare i cittadini»); combatte il
monopolio statale delle trasmissioni televisive e della scuola. E, tuttavia, nel terzo volume
di Legge, legislazione e libertà, scrive:
Le funzioni del Lungi dal propugnare «uno stato minimo»,
governo in una riteniamo indispensabile che in una società
società libera avanzata il governo debba usare il proprio potere
di raccogliere fondi per le imposte per offrire una
serie di servizi che per varie ragioni non possono
essere forniti – o non possono esserlo in modo adeguato – dal mercato.
È così, afferma Hayek, che molte comodità capaci di rendere tollerabile la vita in una città
moderna vengono fornite dal settore pubblico:
La maggior parte delle strade […], la fissazione degli indici di misura, e molti altri
tipi di informazione che vanno dai registri catastali, mappe e statistiche, ai controlli
di qualità di alcuni beni e servizi.
Per Hayek la sfera delle attività di governo non vincolata da leggi è molto vasta. Certo,
l’esigere il rispetto della legge, la difesa dai nemici esterni, il campo delle relazioni estere
sono attività dello Stato. Ma c’è sicuramente di più:
Pochi metteranno in dubbio che soltanto questa organizzazione [dotata di poteri
coercitivi: lo Stato] può occuparsi delle calamità naturali quali uragani, alluvioni,
terremoti, epidemie e così via, e realizzare misure atte a prevenire o rimediare a essi.
Ed è ovvio, allora, «che il governo controlli dei mezzi materiali e sia sostanzialmente
libero di usarli a propria discrezione». Ma ecco ora delle considerazioni di Hayek che sono
di estrema importanza e smentiscono parecchie interpretazioni affrettate e certamente non
documentate del suo pensiero:
Azioni governative Vi è tutta un’altra classe di rischi rispetto ai quali
di solidarietà a è stata riconosciuta solo recentemente la
favore dei più necessità di azioni governative, dovuta al fatto
svantaggiati che, come risultato della dissoluzione dei legami
della comunità locale e degli sviluppi di una
società aperta e mobile, un numero crescente di
persone non è più strettamente legato a gruppi particolari su cui contare in caso di
disgrazia. Si tratta del problema di chi, per varie ragioni, non può guadagnarsi da
vivere in un’economia di mercato, quali malati, vecchi, handicappati fisici e mentali,
vedove e orfani – cioè coloro che soffrono condizioni avverse, le quali possono
colpire chiunque e contro cui molti non sono in grado di premunirsi da soli, ma che
una società la quale abbia raggiunto un certo livello di benessere può permettersi di
aiutare.
Una tale società può permettersi il conseguimento di tali fini umanitari perché è ricca; e
può farlo tramite operazioni fuori mercato e non con manovre che siano correzioni del
mercato medesimo:
Perché la Grande Assicurare un reddito minimo a tutti, o un livello
Società dev’essere sotto cui nessuno scenda quando non può
solidale provvedere a se stesso, non soltanto è una
protezione assolutamente legittima contro rischi
comuni a tutti, ma è un compito necessario della
Grande Società in cui l’individuo non può rivalersi sui membri del piccolo gruppo
specifico in cui era nato.
Un sistema che invoglia a lasciare la relativa sicurezza goduta appartenendo a un
gruppo ristretto, probabilmente produrrà forti scontenti e reazioni violente, quando
coloro che ne hanno goduto prima i benefici si trovino, senza propria colpa, privi di
aiuti, perché non hanno più la capacità di guadagnarsi da vivere.
LA SCUOLA DI FRIBURGO E L’ECONOMIA SOCIALE
DI MERCATO

III
Walter Eucken: Sì alla pianificazione delle forme dell’economia, no alla pianificazione dei processi
economici

Quel patrimonio di idee e di proposte politiche e socio-economiche che è conosciuto con il


nome di scuola di Friburgo o di ordoliberalismo prende l’avvio negli anni Trenta, presso
l’università di Friburgo in Brisgovia, a opera dell’economista Walter Eucken (1891-1950)
e di due giuristi, Franz Böhm (1895-1977) e Hans Grossman-Doerth (1894-1944).
L’ordoliberalismo «è un insieme di idee socio-politiche in favore di una società libera e
socialmente giusta dove vengono fissate regole generali di politica economica. Si tratta di
una concezione decisamente liberale, fondata sulla libertà individuale e sulla convinzione
che mercati in buon ordine di funzionamento e la concorrenza conducono all’efficienza
economica e, di conseguenza, allo sviluppo (o, nel caso della Germania del secondo
dopoguerra, alla ricostruzione) dell’economia, come anche al progresso sociale» (Nils
Goldschmidt).
Più distanti di Adam Smith dalla credenza in un’armonia spontanea prodotta dalla «mano
sensibile», gli ordoliberali, cioè i fautori della economia sociale di mercato (soziale
Marktwirtschaft), hanno sostenuto l’idea che il sistema economico deve funzionare in
conformità con una «costituzione economica» posta in essere dallo Stato. Nelle sue
Grundlagen der Nationalökonomie (1940), Walter Eucken scriveva:
L’economia ha Il problema [dell’economia] non si risolverà da
bisogno di regole se stesso, semplicemente lasciando che il sistema
tanto nazionali economico si sviluppi spontaneamente. La storia
quanto del secolo [XIX] lo ha dimostrato senza appello.
internazionali Il sistema economico deve essere pensato e
deliberatamente costruito. Le questioni
riguardanti la politica economica, la politica
commerciale, il credito, la protezione contro i
monopoli, la politica fiscale, il diritto societario o il diritto fallimentare,
costituiscono i differenti aspetti di un solo grande problema, che è quello di sapere
come bisogna stabilire le regole dell’economia presa come un tutto, a livello
nazionale e internazionale.
Una proposta, questa, che non ha minimamente nulla a che fare con la pianificazione
economica centralizzata o con una politica statale interventista. Il ruolo dello Stato
nell’economia sociale di mercato non è semplicemente quello di «guardiano notturno»
tipico del liberalismo del laisser-faire, bensì è quello di uno «Stato forte» in grado di
contrastare l’assalto contro il funzionamento del mercato da parte dei monopoli e dei
cacciatori di rendite. Quale, dunque, la natura dell’attività dello Stato? Questa la risposta
di Eucken:
Lo Stato deve agire sulle forme dell’economia, ma non deve essere esso stesso a
dirigere i processi economici […]. Pertanto, sì alla pianificazione delle forme, no
alla pianificazione e al controllo del processo economico.
Essenziale, insiste Eucken, è aver chiara la differenza tra forma e processo, e agire di
conseguenza.

L’ordine di mercato come ordine costituzionale

Fu nel primo volume della loro pubblicazione politica, Ordnung der Wirtschaft (1937),
che Böhm, Eucken e Grossman-Doerth stesero una introduzione programmatica nella
quale, da una parte, viene resa esplicita la loro opposizione alla ancora persistente eredità
della scuola storica dell’economia di Gustav Schmoller, e, dall’altra, viene affermato il
principio di fondo di «legare all’idea di costituzione economica tutte le questioni pratiche
politico-giuridiche o politico-economiche», nella convinzione che l’interrelazione tra
diritto ed economia sia semplicemente «essenziale».
La scuola storica dell’economia, scriverà nel 1952 Eucken nei Grundzätze der
Wirtschaftspolitik, è ateorica nell’ambito dell’economia politica e arbitraria nel campo
della politica economica. Di contro, l’ordoliberalismo propone un approccio sistematico
che sfocia nell’Ordnungstheorie e nell’Ordnungspolitik.
Dunque: accettazione e difesa della coordinazione decentrata delle attività economiche
all’interno di un quadro di regole generali del gioco e rifiuto della subordinazione delle
attività economiche a una autorità centrale. Di conseguenza, i fondatori della scuola di
Friburgo «hanno insistito sul fatto che il mezzo principale tramite il quale la politica
economica può cercare di migliorare l’economia sta nel migliorare le regole del gioco
della stessa politica economica, cioè nel porre in essere istituzioni economiche corrette»
(Viktor J. Vanberg).
Con ciò la Wirtschafts-Verfassungspolitik viene a configurarsi come una politica con cui si
cerca di migliorare il sistema economico in maniera indiretta, ristrutturando le regole del
gioco, in netta contrapposizione a una politica economica interventista. Questo nella
persuasione che l’instaurazione di un quadro istituzionale e giuridico di un ordine di
mercato efficace porterà al conseguimento del progetto dei liberali del XIX secolo, cioè
alla soluzione del problema sociale. Ecco la dichiarazione di Eucken e Böhm nel primo
volume di «Ordo» (1948):
Le ragioni Quel che noi cerchiamo di creare è un ordine
dell’economia di economico e sociale che garantisca al medesimo
concorrenza tempo il buon funzionamento dell’attività
economica e condizioni di vita decenti e umane.
Noi siamo a favore dell’economia di concorrenza
poiché è essa che permette il conseguimento di questi scopi. E si può anche dire che
tale scopo non può essere ottenuto che con questo mezzo.
La concorrenza – secondo Eucken e Böhm – «è un mezzo, e non un fine in sé». Contrari
alle diverse concezioni deterministe della storia umana, a cominciare da quella marxista,
sia Eucken sia Böhm hanno riconosciuto che istituzioni sociali ed economiche sono in
gran parte il prodotto di evoluzione piuttosto che esiti di progetti intenzionali; cosa che
vale anche per il mercato che, asserisce Böhm in Freiheit und Ordnung in der
Marktwirtschaft, non è stato inventato da nessuno e si è evoluto gradualmente lungo secoli
e secoli. E tuttavia gli ordoliberali hanno insistito sul fatto che l’uomo può agire sugli
ordini economici e migliorarli per mezzo di riforme deliberate. L’ordine di mercato,
insomma, può funzionare correttamente ed essere mantenuto in buono stato solo se, diceva
Böhm, si dedicano a esso cure analoghe a quelle di chi coltiva un giardino. E se i padri
fondatori della scuola di Friburgo hanno concepito l’Ordnungspolitik come una politica di
concorrenza in grado di rendere effettiva la sovranità del consumatore, essi non furono
affatto ciechi sulle minacce del potere economico privato sul funzionamento del mercato
concorrenziale, né sul fatto che le tendenze anticoncorrenziali sono più forti nella sfera
pubblica che in quella privata, né sui nefasti maneggi tra pubblico e privato.
A proposito di quest’ultimo caso, nelle Grundlagen der Nationalökonomie Eucken
scriverà:
Il pericolo delle La formazione di monopoli può venire
tendenze incoraggiata dallo Stato stesso, come
anticoncorrenziali conseguenza, per esempio, della sua politica
della produzione industriale, o della sua politica
commerciale, o della sua politica fiscale ecc.
[…]. Lo Stato dapprima incoraggia la formazione di poteri economici privati e in
seguito diventa parzialmente dipendente da questi stessi poteri.
E non è raro che gruppi di pressione chiedano proprio allo Stato di violare le regole,
esigendo tariffe doganali protettive, privilegi fiscali, sovvenzioni dirette e così via –
chiedano cioè allo Stato di violare le regole a favore di un certo gruppo a scapito di altri
gruppi e degli altri cittadini. Da qui l’idea che assegna allo Stato il compito di «guardiano
dell’ordine concorrenziale» (Hüter der Wettbewerbsordnung).
Da quanto finora detto è possibile concludere, con Viktor J. Vanberg, che la scuola di
Friburgo parte dall’idea che «l’ordine di mercato è un ordine costituzionale, cioè un ordine
caratterizzato da un quadro istituzionale che, come tale, è questione di scelte costituzionali
(esplicite o implicite). È una scuola i cui rappresentanti suppongono che i processi di
mercato funzioneranno bene o male in rapporto alla natura del quadro giuridico e
istituzionale all’interno del quale essi si situano, e che la questione di sapere quali regole
debbano o non debbano figurare in questo quadro è un affare di scelte istituzionali tenendo
conto dei vantaggi rispettivi di ciascuna delle scelte possibili».
Simile prospettiva costituzionalista relativa al mercato – prosegue Vanberg – «avvicina la
tradizione di ricerca della scuola di Friburgo al programma di ricerca in economia politica
istituzionale di recente elaborato da James Buchanan», il quale ha generalizzato l’ideale
liberale di cooperazione volontaria, trasportandolo dall’ambito delle scelte di mercato a
quello delle scelte istituzionali, mostrando «come il paradigma liberale classico,
tradizionalmente applicato alla libertà di scelta sui mercati possa venir esteso alla libertà di
scelta delle istituzioni. Così facendo, Buchanan ha completato su un punto capitale i suoi
predecessori della scuola di Friburgo».
Ludwig Erhard e Alfred Müller-Armack: teoria e pratica dell’economia sociale di mercato

Ludwig Erhard (1897-1977), nominato nel 1949 ministro dell’economia dal cancelliere
Konrad Adenauer, nel giro di pochi anni divenne il simbolo del «miracolo economico
tedesco», e nel 1963 fu eletto cancelliere della Repubblica Federale di Germania. Allievo,
presso l’università di Francoforte, di Franz Oppenheimer – il quale pensava alla soluzione
della questione sociale tramite «un socialismo realizzato per mezzo del liberalismo» –,
Erhard nel 1964 scrisse che, secondo Oppenheimer,
La terza via di un socialismo deve esistere una via – una terza via – che sia
realizzato per mezzo del
liberalismo
una sintesi efficace, o una via risolutoria.
Sostanzialmente d’accordo con questa idea di
Oppenheimer, io ho voluto concretizzare, per
mezzo dell’economia sociale di mercato, simile speranza pragmatica.
È stata sicuramente l’influenza esercitata da Oppenheimer su Erhard, se costui ha avuto
una costante attenzione alla questione sociale.«Nel socialismo liberale di Oppenheimer
come nel liberalismo sociale di Erhard, il problema principale è quello di stabilire un
soddisfacente ordine di libertà e di uguaglianza. Nel programma di Erhard, consistente
nell’economia sociale di mercato, l’economia sociale è lo scopo, che si consegue tramite
quel mezzo che è il mercato. Su questa base, la concezione di Erhard di una economia di
mercato posta al servizio dell’equilibrio sociale si struttura, per il meno che si possa dire,
su questi tre punti: 1) impedire al potere politico di essere una sorgente arbitraria di
disordine; 2) sopprimere ogni struttura monopolistica; 3) far prevalere in ogni caso libertà
e concorrenza» (N. Goldschmidt).
Un programma, questo, che porta Erhard a un incondizionato apprezzamento della scuola
di Friburgo. Ecco una sua testimonianza risalente al 1961:
La rilevanza degli Se esiste una teoria in grado di interpretare in
aspetti politici e modo corretto i segni del tempo e di offrire un
sociali della nuovo slancio simultaneamente a una economia
proposta di concorrenza e a un’economia sociale, questa è
ordoliberale la teoria proposta da coloro che vengono
chiamati neoliberali o ordoliberali. Essi hanno
posto con sempre maggiore intensità l’accento
sugli aspetti politici e sociali della politica
economica affrancandola da un approccio troppo meccanicistico e pianificatore.
Il dilemma cui Erhard si trovò di fronte era se bisognava ridare posto alla libertà o, tramite
un’economia centralisticamente pianificata, tornare in una situazione di servitù e di
sottomissione totale allo Stato.
La scelta di Erhard fu chiara: lo Stato ha il compito di garantire l’ordine economico,
rendendo possibile una concorrenza libera e corretta ed ergendosi così a difensore
dell’interesse generale. La concorrenza è il mezzo più adeguato per il conseguimento
dell’equità sociale: un’idea comune a Eucken e a Erhard. Da qui il giudizio di Erhard sulla
scuola di Friburgo:
I meriti della scuola di Friburgo non sono solamente economici. È una scuola che ha
anche un impatto sulla politica. Parecchi Paesi, da quando applicano la dottrina di
Eucken, hanno cercato di porre in opera in modo disciplinato un ordine economico
conforme a dei principi intellettuali chiari, invece di affidarsi a un pragmatismo
privo di pensiero.
Alfred Müller-Armack (1901-1978), allievo di Leopold von Wiese all’università di
Colonia, dove nel 1923 ottiene il dottorato, diviene professore di economia all’università
di Münster nel 1938; deciso difensore dell’economia di mercato, nel 1952 viene nominato
da Erhard direttore dell’Unità della politica centrale al ministero federale dell’economia –
posto che egli manterrà sino al 1958, mentre seguiterà a insegnare a tempo pieno
all’università di Colonia. È nel 1958, infatti, che Erhard chiama Müller-Armack ad
assumere la carica di segretario di Stato per le questioni europee. Nel 1963, dopo
l’elezione di Erhard a cancelliere, si ritirerà dalla politica dedicandosi di nuovo al suo
insegnamento a Colonia.
Al pari di quelle di Erhard, molte delle idee di Müller-Armack sono vicine o combaciano
con le proposte dei rappresentanti della scuola di Friburgo. Ecco come egli stesso, in un
testo pubblicato nel 1978 nella «Review of Social Economy» e dal titolo The Social
Market Economy as an Economy and Social Order, presenta quelle che, a suo avviso,
costituiscono le basi dell’economia sociale di mercato:
I tre principi [1] Non si può portare avanti una politica
fondamentali economica dotata di senso se non si ha una
dell’economia concezione globale dell’ordine economico.
sociale di mercato [2] Ludwig von Mises ha perfettamente ragione
nella sua critica alla persistenza di sistemi misti
di politica economica: questi, in realtà, non
possono far altro che aggravare i difetti dei sistemi puri, perdendone i vantaggi.
[3] È utopico credere a un controllo centrale e, al medesimo tempo, pensare di
soddisfare i desideri dei consumatori.
Da qui la necessità di fondare la politica economica sull’ordine di mercato. Solo che, per
Müller-Armack, l’economia di mercato non riesce a soddisfare in maniera sufficiente
«certi bisogni di conciliazione sociale e di sicurezza sociale», per cui l’ordine
concorrenziale va considerato inserito in precisi contesti sociali non privi di tensioni che
devono venir riequilibrati con misure addizionali di sicurezza sociale. Il ritorno
all’economia di mercato era necessario e giusto, tuttavia – affermava Müller-Armack in
Wirtschaftsordung und Wirtschaftspolitik (1965) – affidarsi al solo ordine concorrenziale
rappresenta una prospettiva «troppo restrittiva», ed «è così, allora, che io, da parte mia –
annotava Müller-Armack – pensai bene di aggiungere un sistema di misure sociali e
sociopolitiche, compatibili in ogni caso con il mercato».
IL LIBERALISMO PERSONALISTICO DI WILHELM
RÖPKE

IV
Anche il prosaico mondo del commercio deve attingere a riserve morali

Così von Hayek ricorda Wilhelm Röpke:


Il coraggio di un Tra tutte le doti di Röpke, vorrei ricordarne in
lottatore particolare una, quella che noi suoi colleghi
ammiriamo in modo speciale – forse perché è la
più rara tra gli studiosi: il suo coraggio. Röpke
mostrò un grande coraggio da giovane, quando la sua reputazione e la sua posizione
dovevano ancora venire al mondo, e lo mostrò di nuovo allorché senza esitazione
mise a nudo le illusioni degli anni Sessanta del secolo ventesimo con la stessa onestà
con cui aveva lottato contro le illusioni degli anni Venti.
E ancora: nel 1961, festeggiando gli ottanta anni di Ludwig von Mises, Röpke, in qualità
di presidente della Mont Pélerin Society, pronunciò un discorso in cui, tra l’altro, disse:
Mi piace sottolineare, in questa occasione, il mio immenso debito nei confronti di
Ludwig von Mises, perché fu proprio lui a immunizzarmi, sin dalla mia gioventù, dal
veleno del socialismo, infezione con la quale molti di noi erano tornati dalla prima
guerra mondiale.
Da parte sua, Ludwig von Mises – ricorda la signora Mises, Margit – «aveva una
grandissima stima del professor Röpke. Röpke aveva avuto il coraggio di opporsi
apertamente ai nazisti, sebbene sapesse con certezza che non sarebbe più potuto tornare in
Germania sinché i nazisti fossero rimasti al potere – né egli voleva tornarvi».

Wilhelm Röpke nasce nel 1899 a Schwarmstadt, vicino a Hannover. In alcune annotazioni
autobiografiche egli si definisce «un figlio di un villaggio della brughiera di Lüneburg», il quale, «attraverso
tante tappe, tanti errori e libri e conversazioni e intuizioni ed esperienze», alla fine è diventato «un fermo
assertore della concezione liberale del mondo».
Compie i suoi studi universitari prima a Gottinga e successivamente a Tubinga e si laurea in scienze
politiche, nel 1922, all’università di Marburgo. Insegna sociologia a Jena dal 1924 al 1928 e a Graz
nell’anno 1928-1929. Dal 1929 al 1933 è professore all’università di Marburgo.
E proprio nel 1933, allorché Hitler sale al potere, Röpke abbandona la Germania.
Esule in Turchia, insegna economia all’università di Istanbul dal 1933 al 1937, contribuendo alla
creazione di una università moderna. A Istanbul si era rifugiato, insieme a lui, un altro esponente del
liberalismo, Alexander Rüstow, il quale resterà in quella università sino al 1949, quando verrà chiamato a
insegnare all’università di Heidelberg.
Quella di Röpke e di Rüstow fu una lotta a favore di un liberalismo certamente economico ma anche
sociologico e morale. Critici del socialismo e della socialdemocrazia, essi lo furono anche di quel
capitalismo che aveva dimenticato la vera economia di mercato e la concorrenza, e difesero l’idea che «il
mercato e la libertà non si reggono da soli, ma presuppongono credenze e strutture che vanno al di là
dell’offerta e della domanda (riprendendo il titolo di una celebre opera di Wilhelm Röpke)» (Gerd
Habermann). E, in realtà, Röpke ebbe questa ferma convinzione:

I presupposti etici Anche il prosaico mondo del commercio attinge


dell’economia di a riserve morali, e insieme con loro vive e
mercato decade. […] Il mercato, la concorrenza, il
gioco dell’offerta e della domanda non
generano queste riserve morali, ma […] le
presuppongono e le usano. Esse provengono da sfere estranee al mercato e non v’è
testo di economia politica che possa sostituirle […]. Autodisciplina, senso di
giustizia, onestà, fairness, cavalleria, moderazione, spirito di colleganza, rispetto
della dignità umana, salde norme morali, sono tutte qualità che gli uomini
debbono già possedere quando vanno al mercato e competono nella concorrenza;
sono i sostegni indispensabili per preservare sia il mercato, sia la concorrenza da
ogni degenerazione; e sono da trovarsi nella famiglia, nella chiesa, nelle vere
comunità.
Nel 1937 Röpke lascia Istanbul per Ginevra, dove è chiamato a dirigere l’Institut des Hautes Etudes
Internationales. Qui ha per colleghi studiosi di grande fama quali Ludwig von Mises, William Rappard,
Hans Kelsen, Paul Mantoux, Louis Bodin, Guglielmo Ferrero e Pitnam Potter. Nel 1939 progetta di partire
per gli Stati Uniti, assieme a Mises; si reca al consolato americano di Zurigo per prendere i visti; all’ultimo
momento, però, avendo egli già da un pezzo la cittadinanza svizzera, e a motivo dei tre figli piccoli, non se
la sente di lasciare la Svizzera.
Nel 1947 è tra i fondatori della Mont Pélerin Society. Attivo collaboratore della rivista «Ordo», nel 1950
viene nominato consulente economico del governo tedesco. E fu proprio lui uno dei principali artefici di
quella politica economica alla base della strabiliante rinascita della Germania Occidentale.
Nel ricordo di Erhard: «Wilhelm Röpke è un grande testimone della verità. I miei sforzi verso il
conseguimento di una società libera sono appena sufficienti per esprimergli la mia gratitudine, per avere
egli influenzato la mia concezione e la mia condotta».
Röpke si spegne a Ginevra il 12 febbraio 1966.

Il suo nome è noto, a livello internazionale, grazie soprattutto a opere come le seguenti:
Die Gesellschaftskrisis der Gegenwart (1942; trad. it. La crisi sociale del nostro tempo);
Civitas Humana. Grundfragen der Gesellschafts- und Wirtschaftsreform (1944; trad. it.
Civitas Humana. I problemi fondamentali di una riforma sociale ed economica);
Internationale Ordnung (1945; trad. it. L’ordine internazionale); Jenseits von Angebot und
Nachfrage (1958; trad. it. Al di là dell’offerta e della domanda).

Contro quel capitalismo che è una caricatura della vera economia di mercato e contro la malattia
mortale del collettivismo

«Röpke è stato il teorico di un rinascimento della tradizione liberale; i suoi studi, infatti, lo
hanno portato a riscoprire le radici cristiane del liberalismo, il primato dell’etica sul
mercato, i valori, i diritti, ma anche i bisogni della persona umana e tutto ciò ha fatto sì
che il suo possa essere etichettato come un umanesimo liberale» (Massimo Baldini).
Lucide sono le argomentazioni di Röpke contro quel «capitalismo» che è stato «la
degenerazione e la caricatura storica» dell’economia di mercato. Una caricatura, tuttavia,
che non toglie valore alla natura di tale economia che si basa sulla libertà, la proprietà, la
divisione del lavoro e la concorrenza. Scrive Röpke ne La crisi sociale del nostro tempo:
Quando il [Il capitalismo] non è altro che quella forma
capitalismo non fu guasta e arrugginita che l’economia di mercato
vera economia di ha assunto nella storia economica degli ultimi
mercato cent’anni. Vera economia di mercato e regime di
concorrenza il «capitalismo» non fu, per lo meno
non lo fu durante gli ultimi cinquant’anni, e c’era
da esserne sempre più preoccupati.
C’era, appunto, da preoccuparsi davanti a un capitalismo «monopolistico e colossale»,
violento e fonte di sfruttamento, intriso di «sovrano disprezzo degli istinti vitali
dell’uomo» e insensibile alle «sue necessità vitali elementari e immateriali». Questo
capitalismo è «una forma abortiva di economia».
In ogni caso, se una forma storica degenerata di economia di mercato non toglie valore
alla natura dell’economia di mercato, il collettivismo è semplicemente irredimibile: è «il
pericolo mortale di tutta la nostra società occidentale»; e comunismo e socialismo non
sono utopie, ma tragedie.
Il collettivismo, in mancanza della bussola della libera formazione dei prezzi, non può non
portare al disastro economico. È inevitabile negazione della libertà dei singoli e dei
gruppi, una dittatura sui bisogni. E – come Röpke dirà in Civitas Humana – è sorgente di
discordia internazionale. D’altra parte, lo statalismo è il concime della corruzione e crea
l’illusione, carica delle più disastrose conseguenze, che sia possibile vivere al di sopra
delle possibilità consentite senza pagarne il conto. Statizzare l’uomo credendo di
umanizzare lo Stato è un errore fatale.
Lo Stato dei collettivisti è uno Stato centralistico, interventista, burocratico, liberticida: è
uno Stato malato. Lo Stato sano, invece, riesce a fondere «libertà e ordine», e con ciò
rende possibile il libero sviluppo dell’uomo nella comunità; è uno Stato federale e
decentrato, che si impone dei limiti ed è ricco di «corpi intermedi»; è uno Stato che non
solo tollera ma addirittura favorisce i contrappesi al suo potere – contrappesi quali la
classe media, la magistratura, la stampa e la religione.
La religione – leggiamo ancora in Civitas Humana – viene favorita per via del fatto che il
cristianesimo, «contrariamente alla concezione sociale dell’antichità pagana, pone al
centro il singolo individuo con la sua anima immortale desiderosa di raggiungere la
salvezza. Davanti allo Stato c’è ora la persona umana e sopra lo Stato il Dio universale, il
suo amore e la sua giustizia. Guglielmo Ferrero […] non ha dunque torto quando afferma
che l’azione rivoluzionaria del cristianesimo fu di frantumare l’“esprit pharaonique de
l’Etat ancien”».
Malato di malattia mortale lo Stato collettivista, pericoloso è lo Stato assistenzialista. Ed è
pericoloso sia perché tramite una tassazione, che si fonda più sull’invidia che sulla
compassione, lascia alla fine ai cittadini solo l’«argent de poche», sia soprattutto per la
ragione che distrugge nei cittadini il senso di responsabilità, di dedizione al dovere,
l’iniziativa personale, la solidarietà frutto di spontanea generosità.
Lo Stato assistenzialista è quello dove demagoghi immorali e irresponsabili impongono,
per legge, una solidarietà coatta. Non è che Röpke condanni l’assistenzialismo statale in
maniera assoluta e definitiva, anche perché il suo è un liberalismo che non ha mai deviato
l’attenzione dalle condizioni dei più svantaggiati. Scrive in Al di là dell’offerta e della
domanda:
Necessità e limiti Le pensioni statali per la vecchiaia,
dello Stato l’assicurazione sulle malattie, l’assicurazione
assistenziale sugli infortuni, la previdenza per i congiunti, le
sovvenzioni per i disoccupati, tutte queste
istituzioni che ci sono diventate familiari quanto
le stazioni ferroviarie e gli sportelli postali, debbono naturalmente – anche se non
riescono a entusiasmarci – mantenere il loro posto in un sano sistema di previdenza
di una società libera. Non la loro necessità, in linea di massima, si vuole mettere in
dubbio, ma la loro misura, la loro organizzazione e lo spirito che le anima.
Lo Stato assistenziale, in breve, è necessario, ma è al suo posto finché «non indebolisce
l’impulso alla previdenza volontaria individuale o mutualistica».

Il liberalismo quale legittimo figlio spirituale del cristianesimo

Alla domanda su che cosa sia il liberalismo, Röpke risponde:


Il liberalismo è Il liberalismo è umanistico. Ciò significa: esso
umanistico, parte dalla premessa che la natura dell’uomo è
personalistico, capace di bene e che si compie soltanto nella
antiautoritario comunità, che la sua destinazione tende al di
sopra della sua esistenza materiale e che siamo
debitori di rispetto a ogni singolo, in quanto
uomo nella sua unicità, ciò che ci vieta di abbassarlo a semplice mezzo. Esso è
perciò individualistico oppure, se si preferisce, personalistico. Ciò significa: in
conformità alla dottrina cristiana per cui ogni anima umana è immediatamente
dinanzi a Dio e rientra in lui come un tutto; la realtà ultima è la singola persona
umana e non già la società per quanto l’uomo possa trovare il proprio adempimento
soltanto nella comunità, nel suo servizio e possibilmente nel sacrificio per essa. Il
liberalismo è perciò antiautoritario.
Il liberalismo è dunque una concezione politica a servizio della persona umana, di ogni
singolo uomo e di ogni singola donna. Da qui il continuo insistere, da parte di Röpke, sui
rapporti tra cristianesimo e liberalismo – rapporti analizzati anche da autori come
Benjamin Constant, Alexis de Tocqueville o Antonio Rosmini e che sono ben presenti
all’interno della tradizione del pensiero scolastico e nella dottrina sociale della Chiesa.
Afferma Röpke in Civitas Humana:
Il nostro debito nei Noi dobbiamo la nostra libertà moderna al
confronti dei martiri coraggio dei martiri cristiani di fronte alla morte,
cristiani perché soltanto alla loro inflessibilità va
attribuito il fatto che il tardo dispotismo romano
poté essere infranto in nome della religione
cristiana universale e che si poté conquistare quel diritto dell’anima individuale che
contraddistingue la libertà moderna.
Non vi è alcun dubbio, per Röpke, che «un bon chrétien est un libéral qui s’ignore». E
ancora con maggior chiarezza:
Il liberalismo non è […] nella sua essenza un abbandono del cristianesimo, bensì è il
suo legittimo figlio spirituale, e soltanto una straordinaria riduzione delle prospettive
storiche può indurre a scambiare il liberalismo con il libertinismo.

Antichità classica e Entrambi [antichità classica e cristianesimo]


cristianesimo alle sono i veri antenati del liberalismo, perché sono
origini del gli antenati di una filosofia sociale che regola il
liberalismo rapporto, ricco di contrasti, tra l’individuo e lo
Stato secondo i postulati d’una ragione inserita
in ogni uomo e della dignità che spetta a ogni
uomo come fine e non come mezzo, e così contrappone alla potenza dello Stato i
diritti di libertà del singolo. In tal senso è lecito trarre dagli scritti di Cicerone, dal
Corpus Juris e dalle Summae di Tommaso d’Aquino un compendio oggi ancora
importante del liberalismo, e oggi ancora incontriamo questa venerabile eredità in
tutte le gradazioni, nella dottrina sociale della Chiesa cattolica.
Cristianesimo e liberalismo sono dunque strettamente connessi – anche se questa verità
viene negata da moralisti ignoranti, che cioè ignorano «i più semplici elementi
dell’economia», mentre non ci si rende conto, da più parti e anche da parte di molti
cristiani, che il collettivismo rappresenta «la minaccia più brutale» per il cristianesimo:
L’economia di Come base morale dell’economia di mercato è
mercato trova la indispensabile quel patrimonio etico che abbiamo
sua base morale raggiunto per effetto dello sviluppo millenario
nei dieci dall’antichità attraverso il cristianesimo fino al
comandamenti giorno d’oggi. […] La base etica dell’economia
di mercato è costituita dai dieci comandamenti.
Essi sono indispensabili e allo stesso tempo
sufficienti. Sarebbe solo auspicabile che fossero
rispettati.
D’altro canto, è vero che Röpke vedeva la società contemporanea in crisi in quanto società
massificata in cui l’homo insipiens gregarius, ormai «polvere sociale», è un uomo affranto
dalla solitudine, divorato dalla noia e pronto ad aggrapparsi a uno svago rumoroso privo di
«ogni contenuto umano»; ma è altrettanto vero, secondo Röpke, che la crisi dell’epoca
contemporanea è prima di tutto crisi religiosa. L’uomo che ha abbandonato il
cristianesimo non ha trovato di meglio che sostituirlo con il fascismo, il comunismo e il
nazismo. Scrive Röpke nel 1959, in Al di là dell’offerta e della domanda:
La civiltà va in crisi La malattia della nostra civiltà ha le sue radici
quando l’uomo più profonde nella crisi spirituale e religiosa ch’è
tenta di mettersi al in ogni individuo; e solo nell’anima di ogni
posto di Dio individuo può trovare il proprio superamento.
Benché l’uomo sia innanzitutto homo religiosus,
tendiamo sempre più, da un secolo a questa
parte, di far a meno di Dio, mettendo al suo posto l’uomo con la sua scienza, con la
sua arte, con la sua tecnica e con il suo Stato, tutti lontani da Dio o addirittura senza
Dio. Verrà un giorno in cui ciò che ora è chiaro soltanto a pochi apparirà
chiarissimo a tutti: si vedrà che questo tentativo ha creato una situazione
incompatibile con la vita etica e spirituale dell’uomo, il quale non potrà continuare a
esistere così, malgrado la televisione, le autostrade, i viaggi di piacere, gli
appartamenti confortevoli.
ALLE RADICI DELLA TRADIZIONE DEL
CATTOLICESIMO LIBERALE

V
Il contributo della tardoscolastica spagnola alla comprensione dell’economia di mercato

Una posizione sui rapporti tra cristianesimo e liberalismo, come quella di Wilhelm Röpke,
sebbene non sia stata nella storia della cristianità una concezione maggioritaria e ancor
oggi venga non di rado osteggiata, è in ogni caso una prospettiva che si situa all’interno di
una consistente tradizione di pensiero.
Fu lo stesso Max Weber a sostenere, ne L’etica protestante e lo spirito del capitalismo,
che è «pazzamente dottrinaria» la tesi secondo cui «“lo spirito capitalistico” […] sia
potuto sorgere solo come emanazione di determinate influenze della Riforma o che
addirittura il capitalismo come sistema economico sia un prodotto della Riforma. Già il
fatto che alcune importanti forme di aziende capitalistiche sono notoriamente assai più
antiche della Riforma si oppone una volta per sempre a una tale opinione».
Quanto sta a cuore a Weber è «porre in chiaro soltanto se e in quale misura influenze
religiose abbiano avuto parte nella formazione qualitativa e nella espansione quantitativa
di quello “spirito” nel mondo e quali lati concreti della civiltà che posa su basi
capitalistiche derivano da tali influenze».
Eppure, nonostante queste chiare considerazione di Weber, la sua opera è stata per decenni
e decenni interpretata come se lo spirito del capitalismo fosse un esclusivo frutto della
Riforma. Questa interpretazione è stata presentata – così annota, sulla base di una vasta
letteratura, Kurt Samuelsson in Economia e religione – come verità evidente e
indiscutibile in molti testi di storia, di storia delle religioni e di sociologia.
Ma che le cose non stiano in questo modo lo attestano innanzitutto le ricerche sulle idee
economiche della tardoscolastica spagnola. Tardoscolastici eminenti furono, tra altri, i
domenicani Francisco de Vitoria (1492-1546), Domingo de Soto (1495-1560), Martin de
Azpilcueta (1493-1546), Domingo de Báñez (1528-1604) e Tomás de Mercado (1500-
1575); i francescani Juan de Medina (1490-1546) e Henrique de Villalobos (?-1637); il
vescovo agostiniano Miguel Salon (1538-1620); e i gesuiti Luis de Molina (1535-1600),
Juan de Mariana (1535-1624), Francisco Suárez (1548-1617), Juan de Lugo (1583-1660) e
Antonio de Escobar y Mendoza (1589-1669). Costoro, in un orizzonte teorico che oggi
diciamo «liberale», posero la loro attenzione su temi come: le vantaggiose funzioni della
proprietà privata; la finanza pubblica (la spesa pubblica, i principi della tassazione); la
teoria monetaria (moneta, prezzi, svalutazione); i mercati e il commercio con particolare
riguardo al commercio internazionale, il valore delle merci, i prezzi, il monopolio, il
controllo dei prezzi; il rapporto tra prezzi e conoscenza, il salario; i profitti, l’interesse e
l’attività bancaria. Tramite Molina le teorie economiche dei tardoscolastici raggiunsero il
Portogallo, e per opera di Escobar influenzarono la Francia dei fisiocratici, così come
Leonardo Lessi influenzò Ugo Grozio nei Paesi Bassi.
E «in Germania gli scolastici spagnoli esercitarono una profonda influenza sugli scritti di
Samuel von Pufendorf (1632-1694). Tramite Grozio, Pufendorf e i fisiocratici, molte idee
tardoscolastiche influenzarono il pensiero economico anglosassone, specialmente la
“scuola scozzese”, composta da Ferguson (1723-1816), Hutcheson (1694-1746) e Smith
(1723-1790)» (Alejandro Antonio Chafuen).
E, in realtà, fu «grazie ad autori protestanti come Samuel Pufendorf […] che alcuni degli
argomenti di questa scuola [di Salamanca] fecero la loro comparsa nel corso di studi che
Francis Hutcheson elaborò per Adam Smith, e quest’ultimo li menzionò ripetutamente
nelle sue opere. In effetti, le intuizioni e le formulazioni della scuola di Salamanca
aiutarono a instaurare la vasta tradizione e il “senso comune” a cui amavano fare appello
gli autori liberali britannici, che si presentavano non come pensatori rivoluzionari, bensì
come coloro che riducevano a sistema l’esperienza comune di secoli» (Michael Novak).

Pratica della povertà e teoria della ricchezza nella scuola francescana del XV secolo

L’esperienza dell’attività economica, prima dei tardoscolastici spagnoli, era stata ben
compresa da esponenti della scuola francescana come Pietro di Giovanni Olivi (1248-
1298) e Alessandro Bovini, detto Alessandro di Alessandria (1270-1314).
Così, tanto per addurre qualche minimo cenno, di fronte alla proibizione canonica
dell’usura, ben prima di Calvino e di Molineaus, Olivi ebbe chiara la distinzione fra il
prestito di una somma di denaro qualsiasi e il prestito di una somma di denaro inscritto o
da inscriversi nel processo produttivo, cioè impiegato in un programmato o già realizzato
investimento produttivo. Per cui – leggiamo nel suo Tractatus de emptione et venditione,
de contractibus usurariis et restitutionibus – «ciò che con ferma decisione (firmo
proposito) è destinato a qualche probabile lucro, non solo ha il significato di semplice
denaro o di qualche merce, ma possiede anche in sé un qualche seme di lucro, che
comunemente chiamiamo capitale. Perciò esso non solo deve rendere il suo stesso valore,
ma anche un valore aggiunto (sed et valor superadiunctus)».
E per quanto concerne il valore di una cosa, nella Prima Quaestio del medesimo
Tractatus, Olivi rileva che tale valore nasce dalla concorrenza di tre cause: raritas,
virtuositas e complacibilitas – e cioè dalla scarsità del bene economico, dalla sua capacità
di rispondere a un bisogno e dalla preferenza che un soggetto dà a un bene in vista
dell’appagamento di un bisogno piuttosto che di un altro, stabilendo una gradualità tra
questi. Con l’idea di complacibilitas Olivi introduce nella concezione del valore un
elemento che risulterà poi nevralgico nel marginalismo e nella successiva e
contemporanea teoria economica.
Quella di Pietro di Giovanni Olivi «è veramente la migliore e la più moderna tra le teorie
del valore del Medioevo» (Oreste Bazzichi).

Lord Acton: il primo cattolico a entrare nella Camera dei Lords

Notevoli sono dunque i contributi offerti dalla tardoscolastica spagnola e, ancor prima,
dalla scuola francescana alla comprensione di quel fenomeno economico, ormai così
cruciale non solo per il destino dell’Occidente ma dell’intera umanità, che è il capitalismo.
Ai nostri giorni alla tradizione del cattolicesimo liberale sono legati i nomi di Michael
Novak, Leonard Liggio, Alejandro Antonio Chafuen e Robert Sirico negli Stati Uniti
d’America; di Jacques Garello, Philippe Nemo e Jean-Yves Naudet in Francia; di don
Angelo Tosato in Italia.
Tra gli esponenti del liberalismo cattolico del Novecento, insieme a Röpke, non vanno
dimenticati Konrad Adenauer, Luigi Einaudi e don Luigi Sturzo; e tra quelli
dell’Ottocento, Alexis de Tocqueville, Frédéric Bastiat, Antonio Rosmini e Lord Acton.

John Emerich Dalberg Acton nacque a Napoli nel 1834; la sua famiglia era di nobili origini e dalla
mentalità cosmopolita; crebbe poliglotta: in famiglia Acton parlava in inglese con i suoi figli, con sua moglie
parlava in tedesco, in francese con la cognata e in italiano con la suocera.
Studiò in una scuola cattolica sotto la guida del futuro cardinale Wiseman; a motivo della sua
appartenenza alla Chiesa cattolica, non poté frequentare l’università di Oxford; ebbe però la fortuna di
studiare a Monaco, dove gli fu possibile seguire l’insegnamento del più famoso esponente del
cattolicesimo liberale tedesco dell’epoca, Ignaz von Döllinger.
Aveva venticinque anni allorché venne eletto deputato; restò per sei anni alla Camera dei Comuni e,
senza farsi troppo distrarre dall’attività parlamentare, non tralasciò mai i suoi studi di storia e di politica;
direttore di riviste, come «The Rambler» e «Home and Foreign Review», vi difese la prospettiva del
cattolicesimo liberale in forte polemica con gli ultra-montanisti, i quali bollavano come eretici quanti non si
sottoponevano in tutto e per tutto al volere del papa; contrario alla proclamazione del dogma
dell’infallibilità pontificia, Acton venne combattuto dal cardinale Manning, il quale tentò di farlo
scomunicare.
Fu uno dei più celebri storici e autorevoli intellettuali dell’Inghilterra vittoriana. Fu animatore del
movimento cattolico-liberale che verrà emarginato dalla Chiesa al Concilio Vaticano con la vittoria
dell’«infallibilismo» di Pio IX.
Deputato alla Camera dei Comuni, venne successivamente nominato tra i Pari, primo cattolico a
entrare nella Camera dei Lords. Amico, sostenitore e consigliere di William Gladstone, ispirò in molte
decisive occasioni la politica dei governi liberali.
Nel 1877 Lord Acton concepiva l’ambizioso progetto di una storia universale incentrata sullo sviluppo
della libertà attraverso i secoli. Doveva essere nelle sue intenzioni il manifesto ideologico del liberalismo
gladstoniano. Questo grande progetto non sarebbe mai stato realizzato, ma rimangono molti scritti che di
quel disegno raccolgono l’ossatura essenziale. L’opera è stata pubblicata in Italia con il titolo Storia della
libertà.
Acton venne nominato barone dalla regina Vittoria nel 1869; nel 1895 ottenne la nomina a professore
di storia moderna a Oxford, proprio nell’università che non l’aveva accolto come studente.
Primo curatore della Cambridge Modern History, Lord Acton morì in Germania nel 1902.

La libertà non è un dono, ma una conquista

Lord Acton: La mia storia è quella di un uomo che ha iniziato


cattolico sincero e credendosi un cattolico sincero e un sincero
sincero liberale liberale; che quindi ha rinunciato a tutto quello
che nel cattolicesimo non era compatibile con la
libertà, e a tutto quello che in politica non era
compatibile con la cattolicità.
Questo scrive di se stesso Lord Acton, il più significativo rappresentante del cattolicesimo
liberale inglese. Liberale attento ai diritti di proprietà, Acton non volle affatto ignorare i
diritti della povertà – e ciò se non altro perché «ostacoli alla libertà sono non solo le
oppressioni politiche e sociali, ma anche la povertà e l’ignoranza». In ogni caso, il nucleo
centrale del pensiero di Acton consiste nell’idea che la coscienza ha il diritto e il dovere di
giudicare l’autorità:
Il cristianesimo ha La libertà è il regno della coscienza. […] In
difeso la causa di fondo tutta la libertà consiste nel preservare la
ogni libertà civile sfera interna dall’invadenza del potere statale.
Questo rispetto per la coscienza è il seme di ogni
libertà civile e il modo in cui il cristianesimo è
stato al suo servizio.
Né è da credere, precisa Acton, che la libertà sia un dato pacifico:
La libertà non è un La libertà è non un dono ma una conquista; è
dato, quanto uno stato non di riposo ma di sforzo e crescita
piuttosto uno scopo […]; non un dato ma uno scopo. […] La libertà
e un impegno non è originaria, necessaria e ereditaria. Deve
essere conquistata. […] Questa è la teoria
medioevale: non sei libero, se non provi il tuo
diritto a esserlo. La libertà è medievale, l’assolutismo è moderno.
La libertà non è affatto un prodotto della natura, quanto piuttosto della civiltà avanzata. La
libertà del buon selvaggio è un’invenzione, è pura mitologia:
Noi invece intendiamo la libertà come il prodotto lento e il risultato più alto della
civiltà.
La libertà è dunque il regno della coscienza, e, di conseguenza, l’etica ha il primato sulla
politica. L’ubbidienza è tale unicamente se è ubbidienza alla coscienza. Dice Acton:
La coscienza mi suggerisce l’immagine di una fortezza inespugnabile, al cui interno
un uomo realizza la formazione del carattere e sviluppa il potere di resistere
all’influenza dell’esempio e alla legge delle masse.
Ora, appello alla coscienza significa appello diretto alla responsabilità individuale. E qui è
da rinvenire la base teorica sulla quale Acton costruisce la sua netta opposizione all’ultra-
montanismo: il papismo è, a suo avviso, differente dal cattolicesimo – e gli
ultramontanisti, con la loro totale dipendenza dal papa, non avrebbero fatto altro che
abbracciare comportamenti deresponsabilizzanti.
La libertà va La libertà di coscienza è la prima delle libertà.
tutelata sia contro il […] Se la coscienza è il fondamento della libertà,
governo sia contro anche la religione lo è. […] È stato grazie alla
la legge delle coscienza che la religione ha servito la causa
masse della libertà. […] Più la coscienza viene in primo
piano, più consideriamo non quello che lo Stato
realizza, ma quello che permette che sia
realizzato. [Per questo] lo Stato ideale è quello in
cui la libertà è sufficientemente tutelata sia contro il governo sia contro il popolo.
Da qui derivano ulteriori conseguenze: come quella del diritto di associazione che «è
anteriore allo Stato in essere»; o come l’idea che a fondamento del buongoverno sono le
autorità divise o, piuttosto, moltiplicate; e ancora:
le istituzioni sono non un fine, ma un mezzo
la libertà consiste nella divisione dei poteri, mentre l’assolutismo equivale alla
concentrazione dei poteri.
E, da ultimo, la grande e più nota massima di Lord Acton:
Il potere tende a corrompere e il potere assoluto corrompe in modo assoluto.

I fondamenti etici del liberalismo

Convinto che il vero liberale vede «la libertà come fine e non come mezzo», Acton
asserisce che la prima qualità di un liberale è di rivendicare le stesse cose per sé e per gli
altri, «non amare le eccezioni e i privilegi […], riconoscere i diritti degli individui, come
derivati dalla natura e universali». È in questo orizzonte che Acton immerge la sua difesa
della dignità e responsabilità sia dei singoli individui sia dei corpi intermedi, autentiche
dighe contro le pretese onnivore dell’assolutismo:
Quando lo Stato L’assolutismo moderno – fin dal suo sorgere – ha
diventa istituzione avanzato pretese su ogni cosa in nome del potere
liberticida sovrano. Commercio, industria, letteratura,
religione sono stati dichiarati affari di Stato, il
quale, conseguentemente, li ha fatti propri e
controllati. [Senonché,] l’istruzione appartiene al potere civile e per le stesse
motivazioni addotte per commercio, industria, letteratura e religione, rivendica il
diritto di non essere considerato affare di Stato.
Senza libertà d’insegnamento è difficile che un paese sia libero. Da qui la prontezza con
cui ogni potere totalitario – o anche autoritario – monopolizza la gestione dell’intero stato
scolastico e di tutte le fonti di informazione. Ma per Acton, appunto, l’istruzione non deve
essere considerata «affare di Stato».
Verso la fine della sua vita Acton scrive di se stesso:
Nel corso della mia carriera sono spesso stato oggetto di diffamazione e ho
provocato molte critiche. E sono certo che questo capiterà anche in futuro […]. Mi
dispiace solo di aver dato dolore a singole persone. Che io abbia offeso
suscettibilità, ferito pregiudizi e contraddetto molte opinioni inveterate, è come dire
che ho lavorato onestamente e senza compromessi.
Ecco un giudizio sintetico su Acton da parte di Massimo Baldini: «Liberale moderato,
Acton fu nemico di tutti gli estremismi, sia quelli pratici come pure quelli teorici, contro
gli estremismi che si opponevano alla distruzione del potere (egualitarismo), della
proprietà (comunismo) e del territorio (nazionalismo). In particolare, Acton prese una
netta posizione contro il nazionalismo e i suoi sostenitori (primo fra tutti, Mazzini) e,
soprattutto, contro il suo connubio con il liberalismo. Egli prediligeva gli stati
sopranazionali, guardava con ammirazione all’impero austro-ungarico e celebrava il
federalismo come fonte di progresso e di libertà». La teoria nazionalista era da lui
considerata «più assurda e dannosa di quella socialistica» (George Eugene Fasnacht).
L’INTERVENTISMO DI JOHN KEYNES

VI
La vita e le opere

Il grande nemico di Hayek è stato John Maynard Keynes. Keynes nasce a Cambridge nel 1883. Suo
padre era professore di logica e di economia politica nella locale università. Educato dapprima nel collegio
di Eton e poi studente a Cambridge, nel 1908 il giovane Keynes – aveva allora venticinque anni – viene
nominato lettore di economia. Era stato segnalato da Alfred Marshall.
Non particolarmente interessato alla carriera accademica, entra nel Civil Service, come alto burocrate
con funzioni di consulente del governo e rappresentante della Gran Bretagna all’estero. Durante la prima
guerra mondiale lavora per il ministero del tesoro.
Partecipa, a guerra vinta, alla conferenza di pace con la Germania. Anche dopo la seconda guerra
mondiale partecipa alle conferenze destinate alla creazione di un sistema monetario internazionale.
Gli accordi di Bretton Woods accolsero comunque soltanto in parte le proposte di Keynes. Al pari di
David Ricardo, Keynes si arricchì con riuscite speculazioni di Borsa. È stato anche direttore di una società
di assicurazioni.
Raggiunta la prestigiosa carica di governatore della Banca d’Inghilterra, nel 1942 Keynes riceve il
titolo di Lord Keynes, barone di Tilton. Questo «sostegno fondamentale della nazione», quest’uomo
«veramente insostituibile» – così lo definisce il suo biografo Roy F. Harrod –, muore prematuramente nel
1946.

Ecco un significativo giudizio su Keynes da parte di Sergio Ricossa, economista italiano


di indirizzo non keynesiano: «Forse Keynes non sarà il maggiore economista del nostro
secolo […], ma la sua Teoria generale […] ha ogni probabilità di essere il libro di
economia più citato. E le ragioni ci sono. Uscito nel 1936, esso forniva un’ampia
spiegazione teorica della misteriosa catastrofe economica iniziata nel 1929: un collasso
improvviso dei prezzi, della produzione e dell’occupazione, un ritorno diffuso della
miseria in nazioni che avevano dimostrato di saper essere ricche. Nel medesimo tempo, la
Teoria generale rifondava su nuove basi la scienza economica, e forniva agli uomini di
governo un nuovo modo di fare politica».
Oltre alla Teoria generale dell’occupazione, interesse e moneta del 1936, altre opere
importanti di Keynes sono: Le conseguenze economiche della pace (1919); il Trattato
della probabilità (1921); La fine del laissez faire (1926); il Trattato della moneta (1930);
Come finanziare la guerra (1940).

L’occupazione è determinata dalla somma dei consumi e degli investimenti

Pur intendendo salvare il regime della proprietà privata, Keynes reputava assurde le
pretese del liberismo sfrenato ed era dell’avviso che il suo lavoro avrebbe provocato «un
grande cambiamento» e rovesciato «i fondamenti ricardiani del marxismo».
Già allievo di Marshall, dotato di forte senso pratico, polemista brillante, conoscitore di
vaste zone della matematica, Keynes influì in modo decisivo e diretto sulla politica del suo
paese. Il suo punto d’onore è di aver risolto la più grande crisi del capitalismo senza
abbracciare il marxismo.
L’economia classica sosteneva che un sistema economico, lasciato libero di funzionare in
condizioni di libera concorrenza, avrebbe prodotto il benessere di tutti e creato un regime
di occupazione piena. Senonché nel 1924 in Inghilterra i disoccupati raggiunsero il
milione; e agli inizi degli anni Trenta in America un lavoratore su quattro si trovava senza
lavoro. Ora, una situazione del genere non poteva venir risolta, secondo Keynes, con la
vecchia idea secondo cui si sarebbero creati posti di lavoro mediante l’abbassamento del
salario. A suo avviso:

John Maynard Keynes (a destra) con George Bernard Shaw

Non è per niente plausibile l’affermazione che la disoccupazione negli Stati Uniti nel
1932 fosse dovuta al fatto che i lavoratori rifiutassero ostinatamente una riduzione
dei salari nominali, ovvero al fatto che essi chiedessero con altrettanta ostinazione
un salario reale superiore a quello che la produttività del meccanismo economico
fosse in grado di offrire.
La realtà era che un sistema economico, libero di funzionare in base alle proprie leggi, non
è detto che porti necessariamente al benessere di tutti e alla piena occupazione, come i
fatti dimostravano. In effetti, Keynes mise in evidenza che il livello di occupazione è
determinato dalla somma dei consumi e degli investimenti. Di conseguenza, se
diminuiscono i consumi o se diminuiscono gli investimenti, allora crescerà il numero dei
disoccupati.
Gli economisti classici avevano tessuto le lodi del risparmio. Il risparmio è certamente una
virtù privata; denota spirito di sacrificio e intelligenza delle previsioni. Tuttavia, se tutti
risparmiano e nessuno investe, va da sé che prende consistenza un fatale circolo vizioso
per cui: risparmiando non si consuma; il non consumo porterà a un accumulo sempre più
pauroso di merci invendute giacenti nei magazzini; la sovrapproduzione genera il blocco
delle fabbriche; il blocco delle fabbriche significa la perdita immediata dei posti di lavoro,
oltre all’impossibilità di nuovi investimenti.
Per tutte queste ragioni, Keynes si scaglia contro il risparmio di tipo ottocentesco, in
quanto è per lui evidente che quella «virtù privata» si trasforma dal punto di vista della
società in una fonte di disastri, in «pubblico vizio».
Quel che occorre, dice Keynes, è che l’individuo consumi, che spenda il suo denaro in
beni pagabili magari attraverso il rimborso rateale. L’aumento dei consumi metterà in
moto la macchina economica della nazione, giacché, per soddisfare la crescente domanda,
gli imprenditori investiranno di più, con due grosse conseguenze: da una parte
aumenteranno i posti di lavoro, e dell’altra le risorse della nazione (materie prime,
impianti, strade e ferrovie, mano d’opera ecc.) verranno usate in maniera sempre più vasta.
Ecco, dunque, la strada per sfuggire alla crisi: aumentare consumi e investimenti.
E se i privati non consumano, allora si rende necessario l’intervento dello Stato. Anzi, dice
Keynes, il compito di stabilire il volume degli investimenti «non può essere lasciato con
tranquillità nelle mani dei privati».

L’intervento dello Stato

Lo Stato non può essere il semplice spettatore dei comportamenti economici dei privati né,
come sostengono i marxisti, ha il compito di eliminarli:
Lo Stato non Riteniamo perciò che una socializzazione
dev’essere né il abbastanza larga dell’investimento si rivelerà
semplice spettatore come il solo mezzo capace per garantire, almeno
né l’affossatore approssimativamente, il pieno impiego; il che non
delle attività vuol dire che bisogna escludere tutti quei
economiche dei compromessi e quelle diverse formule di ogni
privati specie, che consentono allo Stato di cooperare
con l’iniziativa privata. Ma, a parte ciò, non
sembra ci possa essere alcuna evidente ragione
per giustificare un socialismo di Stato, che
investa la più gran parte della vita economica della comunità. Se è capace di
determinare il volume globale delle risorse consacrate all’aumento dei mezzi
produttivi, e di garantire il saggio di base della remunerazione da conferire ai loro
detentori, lo Stato avrà senz’altro compiuto tutto il necessario.
Questo leggiamo nella Teoria generale dell’occupazione, interesse e moneta. Il problema
dell’occupazione, pertanto, può venir risolto senza che sia necessario il passaggio dalla
proprietà privata alla proprietà collettiva dei mezzi di produzione. I governi, di fronte a
crisi come quella del ’29 e anni seguenti, non possono stare con le mani in mano.
Debbono intervenire. Se il governo, diceva Keynes, avesse pagato i disoccupati per far
buche nelle strade e poi farle riempire, avrebbe compiuto un’azione economicamente
intelligente, giacché avrebbe messo in circolazione del denaro e di conseguenza avrebbe
attivato i consumi e rimesso in moto il sistema produttivo.
Da quanto detto, appaiono chiare le indicazioni di Keynes ai governi. Il capitalismo deve
essere riformato: lo Stato deve intervenire nell’economia e avocare a sé «certi controlli
centrali […] che ora sono lasciati, nel loro insieme, all’iniziativa individuale». Ciò non
significa che l’iniziativa privata debba essere abolita; significa solo che, di fronte
all’iniziativa privata, non deve essere abolito lo Stato:
Lo Stato dovrà esercitare una funzione direttiva sulla propensione verso il consumo,
in parte attraverso il fisco, in parte attraverso il saggio d’interesse, e forse in altri
modi ancora.
Questa politica d’intervento dello Stato sugli affari economici fu avversata dalla vecchia
guardia, e mentre la nuova sinistra, per esempio di Roosevelt e degli uomini del New
Deal, fece proprie le teorie di Keynes, la destra economica fu contro Keynes un po’
ovunque. In effetti, la riforma del capitalismo proposta da Keynes doveva apparire troppo
avanzata e temeraria per i «conservatori». Egli sostenne che la diminuzione del saggio di
interesse avrebbe consentito (e questo doveva esser fatto) la scomparsa dei «percettori di
rendite».
Ciò avrebbe portato alla soppressione della eccessiva disuguaglianza dei redditi. Tali sono
le proposte keynesiane per abolire «i due vizi essenziali del mondo economico», vale a
dire la disuguaglianza e la disoccupazione, salvando le istituzioni democratiche e la libertà
e la ricchezza morale (oltre che materiale) dell’iniziativa privata.
Certo è, in ogni caso, che Keynes aveva ragione nel sostenere che il mercato non porta
spontaneamente alla piena occupazione; egli, tuttavia, fa presente Sergio Ricossa, «aveva
torto nel ritenere che la funzione principale del mercato fosse necessariamente di portare
all’equilibrio della domanda e dell’offerta. Se attribuiamo al mercato il compito diverso di
innovare (progresso merceologico, quasi sempre unito al progresso tecnologico), più esso
innova e meno favorisce il pieno impiego della vecchia capacità produttiva, senza che con
ciò sia lecito parlare di «fallimento del mercato». Innovazione e stabilità sono termini in
larga misura antitetici: Keynes prediligeva la stabilità, ma i suoi argomenti risultano poco
convincenti per chi prediliga l’innovazione. È lodevole l’autorità pubblica che riesca a
ridurre al minimo inevitabile gli inconvenienti sociali connessi al cambiamento per
innovazione, ma questa autorità non può andar oltre sulla via della stabilità senza proibire
in qualche misura il progresso tecnologico e merceologico».
Arte viennese

Joseph Olbrich (1867-1908), Palazzo della Secessione. Vienna


Oskar Kokoschka (1886-1980), Autoritratto con l’amata (Alma Mahler), Vienna, Leopold Museum
Egon Schiele (1890-1918), Manifesto della 49^ mostra della Secessione. Vienna, Österreichische
Nationalbibliothek
Oskar Kokoschka, Drama-Komoedie. New York, Museum of Modern Art

Arte viennese

Il Fregio di Beethoven. Vienna, Österreichische Galerie Belvedere


Gustav Klimt (1862-1918) Ritratto di Emilie Flöge. Vienna, Historisches Museum der Stadt
Pesci d’argento. Collezione privata

Egon Schiele (1890-1918), Donna nuda accovacciata con le calze verdi. Collezione privata

PARTE QUINTA

LOGICA, FISICA E BIOLOGIA NEL NOVECENTO

Matematicamente, un numero non è nient’altro che una classe di classi equipotenti.


Bertrand Russell
Non possiamo separare il processo di osservazione empirica dalla struttura matematica e dai suoi
concetti. La più evidente conferma di questa tesi di Einstein fu più tardi il principio di
indeterminazione.
Werner Heisenberg
Oggi i fisici che hanno contribuito a costruire l’arma più formidabile e pericolosa di tutti i tempi sono
tormentati da un uguale senso di responsabilità, per non dire di colpa.
Albert Einstein
Oggi si può affermare che i meccanismi elementari dell’evoluzione sono non solo compresi nelle loro
linee generali, ma anche identificati con precisione.
Jacques Monod
GLI SVILUPPI DELLA LOGICA E DELLA
MATEMATICA

I
La ricerca sui fondamenti e la scoperta dell’antinomia delle classi

Come si è visto nel capitolo dedicato allo sviluppo delle scienze nell’Ottocento, un gruppo
di geniali matematici, a partire da Cauchy per arrivare fino a Weierstrass, si era impegnato
in un programma di rigorizzazione concettuale delle nozioni fondamentali del calcolo
infinitesimale (limite, infinitesimo, continuità, infinito matematico ecc.).
Tale programma approdò, con Weierstrass e la sua scuola, a quella che è stata chiamata
l’«aritmetizzazione dell’analisi», cioè alla riduzione dei concetti fondamentali dell’analisi
(la matematica che ha come cardine la teoria dei «numeri reali») ai concetti dell’aritmetica
(la matematica che ha come cardine la teoria dei numeri interi positivi, cioè dei numeri
naturali, e, per estensione, dei numeri razionali).
Ora, dato che era noto che la geometria poteva venir ricondotta all’analisi (per mezzo delle
operazioni costituenti la geometria analitica), l’aritmetica (a cui appunto si riduceva
l’analisi) veniva a configurarsi quale «base naturale» dell’intero edificio matematico.
Questo processo di riduzione dell’intera matematica all’aritmetica trova il suo punto
culminante nell’opera di Peano, il quale nel 1899 propose la sua ormai classica
assiomatica dell’aritmetica elementare.
Il sistema assiomatico di Peano consta di cinque assiomi, formulati con l’aiuto di tre
termini primitivi che sono: numero, zero, successore immediato di. Possiamo enunciare gli
assiomi di Peano in questo modo:
1 lo zero è un numero;
2 il successore immediato di un numero è un numero;
3 lo zero non è successore immediato di alcun numero;
4 due numeri qualsiasi hanno un diverso successore immediato;
5 ogni proprietà di cui gode lo zero e il successore immediato di ogni numero che gode
della proprietà data, appartiene a tutti i numeri. (Quest’ultimo assioma esprime quello che
viene chiamato il principio di induzione matematica.)
Ora, però, come già sappiamo, proprio nel periodo di tempo in cui Peano lavorava al suo
progetto, c’erano studiosi come Frege e Cantor che, non persuasi della «naturalità» della
base costituita dall’aritmetica, cercavano di ricondurre la stessa aritmetica a una base
ancor più profonda, riducendo il concetto di numero naturale al concetto logico di classe.
Pertanto, la logica delle classi apparve come la teoria maggiormente adeguata per
l’indagine sui fondamenti della matematica.
Questa idea che la definizione di numero possa venir data in termini di classi (Frege e
Russell) o, per dirla con Cantor, in termini di insiemi, senza che si sia capaci di «contare»
gli elementi di queste classi o insiemi, si può molto sommariamente illustrare nella
maniera seguente. Date due classi A e B tali che a ogni elemento di A si possa far
corrispondere un elemento di B, e viceversa, si dice allora che esse hanno la stessa
«potenza» o lo stesso «numero cardinale». In tal modo, noi, attraverso l’esecuzione
dell’operazione puramente meccanica del mettere in corrispondenza biunivoca gli
elementi delle due classi, possiamo venire a sapere, senza saper contare, se le due classi
hanno o meno la stessa cardinalità, cioè lo stesso numero di elementi.
Di conseguenza appare legittimo definire il numero cardinale di una classe A come la
caratteristica posseduta in comune da tutte e sole le classi i cui elementi possono esser
posti in corrispondenza biunivoca con gli elementi di A. E, più in generale, ci è possibile
dire, come scrive Russell nei Principi della matematica (1903), che
matematicamente, un numero non è nient’altro che una classe di classi equipotenti.
Questa definizione di numero permise, tra l’altro, a Cantor di lavorare sulle relazioni
esistenti tra insiemi infiniti e di stabilire tutta una gerarchia delle loro cardinalità,
scoprendo cose interessanti e controintuitive come, per esempio, che l’insieme dei numeri
naturali ha la stessa potenza di quello dei numeri relativi e di quelli razionali (e la cosa è
controintuitiva perché già tra 0 e 1 sono contenuti infiniti numeri razionali, vale a dire
infinite frazioni proprie p/q, dove p è minore di q).
Ma, a prescindere da questi e altri interessantissimi risultati tecnici ottenuti da Cantor, nel
1903 Russell pubblica i Principi della matematica nella persuasione che «la matematica e
la logica siano identiche» e che «tutta la matematica pura tratta esclusivamente di concetti
definibili in termini di un numero piccolissimo di concetti logici fondamentali». Russell
elaborò le tesi di questo libro attraverso il contatto con l’opera di Frege e l’avvenuta
conoscenza della tecnica logica di Peano, impegnandosi nel grandioso programma di
effettiva costruzione di tutta la matematica a partire dalla logica, programma che Russell
realizzò insieme ad Alfred N. Whitehead con i tre grossi volumi, usciti tra il 1910 e il
1913, intitolati Principia Mathematica. Fu questo il modo in cui Russell cercò di portare a
effetto l’intento di Frege di costruire tutta la matematica su basi logiche.
Nel frattempo, però, tra il 1901 e il 1902 Russell aveva messo in crisi la logica delle classi
e con ciò aveva colpito al cuore la fondazione dell’aritmetica che Frege aveva effettuato
sulla base appunto della logica delle classi. Questo avvenne con la scoperta di
un’antinomia che mostrava come una proposizione, legittima nei fondamenti
dell’aritmetica di Frege, era tuttavia autocontraddittoria. Ecco, per sommi capi,
l’antinomia di Russell.
Consideriamo un insieme che non contenga se stesso come elemento (l’insieme dei libri
sul tavolo; l’insieme di questi libri non è un libro) e chiamiamo normale un tale insieme.
Anche se gli insiemi più usuali sono normali, non si può escludere che esista qualche
insieme non normale. Così, per esempio, l’insieme di tutti gli insiemi è esso stesso un
insieme e, pertanto, non è normale. Ora, formiamo l’insieme I di tutti gli insiemi normali e
chiediamoci se esso è normale. Ebbene, supponiamo che I contenga se stesso come
elemento: allora, esso è normale (perché gli elementi di I sono soltanto insiemi normali) e,
come insieme normale, non può contenere se stesso come elemento. Supponiamo, invece,
che I non contenga se stesso come elemento: allora esso è, per definizione, normale, ma,
insieme a tutti gli insiemi normali, deve essere elemento di I, e quindi contenere se stesso
come elemento. Sia nella prima sia nella seconda ipotesi si cade quindi in una
contraddizione.
Russell parafrasò il suo paradosso, un po’ umoristicamente, con questo esempio:
definiamo un barbiere di villaggio come colui che rade tutti quelli che non si radono da
soli. I paradossi logici trovano un loro antico prototipo nel paradosso del mentitore:
«Epimenide il cretese dice che tutti i cretesi sono bugiardi». Russell comunicò a Frege per
lettera la scoperta di questa antinomia. Frege tentò di porre rimedio ai guai da essa
procurati proprio nel cuore del suo sistema, ma in fondo non fu convinto dai suoi stessi
tentativi di salvataggio e visse gli ultimi anni della sua vita nell’angoscia procuratagli
dall’inconsistenza di tutto il lavoro compiuto.
Dopo la scoperta dell’antinomia di Russell, altre ne vennero formulate ed esse costrinsero
a non accettare in maniera ingenua il concetto di insieme e a impostare in maniera
assiomaticamente rigorosa la teoria degli insiemi.
Fu questo il caso di Ernest Zermelo il quale, avendo scoperto indipendentemente da
Russell l’antinomia delle classi, sviluppò nel 1908 una prima teoria assiomatica degli
insiemi. A questa fecero seguito altre assiomatizzazioni degli insiemi: quella di Skolem, di
Fraenkel, di von Neumann, di Bernays.
Russell, da parte sua, persuaso che l’insorgere delle antinomie fosse dovuto a un cattivo
uso del linguaggio (egli era un platonista, credeva nella oggettiva esistenza degli enti
matematici le cui proprietà e relazioni il matematico deve scoprire; e le contraddizioni non
possono, a suo avviso, esistere nell’oggettivo mondo degli enti matematici), propose di
risolvere il problema delle antinomie attraverso la teoria dei tipi esposta in appendice ai
Principi della matematica. Questa teoria si risolve in prescrizioni di carattere linguistico.
Distinguiamo, dice Russell, i nostri predicati in vari tipi: i predicati di tipo zero sono nomi
di individui; i predicati di tipo uno sono proprietà di individui, si riferiscono cioè a classi
di individui; i predicati di tipo due si riferiscono alle classi di classi di individui, e così via.
Fatta tale distinzione, Russell propone, allo scopo di evitare le antinomie, la seguente
regola: si può attribuire un predicato di tipo n solo a un soggetto di tipo n – 1. In altri
termini: un concetto non può mai occorrere come predicato in una proposizione il cui
soggetto sia di tipo uguale o maggiore di quello del concetto stesso. Fin qui, molto
sommariamente, Russell.
Tuttavia, sia le varie assiomatizzazioni della teoria degli insiemi sia la teoria dei tipi di
Russell lasciavano aperti grossi problemi. Le prime evitavano certo le antinomie note, ma
non garantivano contro altre possibili antinomie. La seconda, poi, mentre anch’essa non
garantiva l’insorgere di ulteriori antinomie (come quelle «semantiche», di cui Richard
formulò la prima nel 1905), non poteva proibire che si costruissero proposizioni non
paradossali e che, però, non rispettavano affatto la teoria dei tipi.

Il programma di Hilbert e i teoremi di Gödel


Frege, Peano e Russell (anche se quest’ultimo dovette in seguito ammorbidire alquanto la
propria posizione) sono, sostanzialmente, dei platonisti: credono a un mondo «oggettivo»,
esistente per sé, di enti e relazioni matematiche che il ricercatore deve scoprire e non
inventare.
La scuola formalista, invece, che fa capo a David Hilbert, sostiene che un ente matematico
esiste quando sia stato definito in modo non contraddittorio. Di conseguenza, la
dimostrazione della noncontraddittorietà delle teorie matematiche diventa il problema
centrale della ricerca matematica.
Un modo di provare la non-contraddittorietà di una teoria matematica era stato quello di
trovare un «modello» degli assiomi della teoria entro una teoria già esistente e che per
consenso unanime veniva data per coerente. Questa via, praticata dallo stesso Hilbert nei
suoi Fondamenti della geometria (1899; in quest’opera Hilbert assiomatizza in modo
rigoroso la geometria euclidea), era stata già battuta dall’italiano Eugenio Beltrami
allorché costui aveva costruito modelli euclidei delle geometrie non-euclidee. In ogni
caso, per quanto ingegnosa o utile questa procedura potesse apparire, essa non andava alla
radice della questione: non risolveva il problema, si limitava a spostarlo, giacché, restando
sempre nel caso del nostro esempio, nessuno può garantire che la geometria euclidea (non
interpretata su di un «universo» di oggetti fisici) sia non-contraddittoria.
Data la scoperta delle antinomie, data la ormai ammessa crisi della forza fondazionale
dell’evidenza intuitiva, date le difficoltà dell’indirizzo logicista (Frege e Russell), data la
differente concezione della natura degli enti matematici, dato che scaricare la prova dalla
non contraddittorietà di un sistema formale su di un’altra teoria della cui non
contraddittorietà non siamo garantiti è sì una via praticabile ma non risolutiva – dato tutto
questo, dunque, Hilbert, con due memorie del 1922-1923, propone il cosiddetto
«programma hilbertiano», con l’intento di offrire una prova non più «relativa» (a un altro
sistema), ma «diretta» o «assoluta» di un sistema assiomatico.
E siccome la matematica «classica», dopo tutto il lavoro precedente, si riduceva a tre
grossi sistemi assiomatici: quello dell’aritmetica, quello dell’analisi, e quello degli
insiemi; e siccome, inoltre, le ricerche condotte nell’Ottocento facevano ritenere
fondamentale «la teoria aritmetica», era allora naturale che Hilbert partisse dalla
dimostrazione di coerenza dell’aritmetica per poi estendere tale coerenza all’ambito
dell’analisi e a quello degli insiemi.
Naturalmente, assiomatizzando l’aritmetica, si deve riconoscere (e ciò dopo Frege era
ineludibile) la necessità di esplicitare scrupolosamente tutti gli ingredienti e i meccanismi
linguistici e logici attraverso cui si organizza e si sviluppa la teoria (questo, se non altro,
per garantirci da quelle contraddizioni che possono scaturire dallo stesso apparato logico
con cui si deducono i teoremi della teoria). Ciò porta alla formalizzazione completa della
teoria di cui si vuole provare la coerenza.

Ritratto di David Hilbert

E qui c’è da badare al fatto che la formalizzazione di una teoria non va confusa con
quell’aspetto – per altro non essenziale – dei sistemi formali che è la simbolizzazione.
Formalizzare una teoria significa esplicitare i pezzi del linguaggio ammesso come anche
le regole di formazione delle forme espressive ammissibili e le regole di manipolazione di
queste formule ammissibili. In tal modo, la teoria assume la forma di un puro calcolo che
prescinde dai significati associabili ai suoi simboli e alle sue espressioni. E, stando così le
cose, la non contraddittorietà di una teoria viene a identificarsi con l’impossibilità di
ottenere, applicando le regole di manipolazione ammesse, una catena dimostrativa in cui
appaia una proposizione e la sua negazione, cioè una contraddizione.
Dunque: l’assiomatizzazione completa di una teoria comporta la formalizzazione anche
della logica che serve a costruirla. Ma, così facendo, la metamatematica di Hilbert con
quali mezzi poteva sottoporre ad analisi critica la logica se non con la logica stessa? Non
c’è forse pericolo di un circolo vizioso? Ovvero, per dimostrare la non contraddittorietà di
una teoria, sarà necessario fare ricorso all’evidenza, a quell’intuizione che tanti sospetti
aveva attirato attorno a sé?
L’idea di Hilbert è che con niente non si fa niente, per cui una certa circolarità è pressoché
inevitabile. Tuttavia egli pensava di avvalersi di procedimenti – i cosiddetti metodi
finitistici – che, pur facendo parte di quell’aritmetica che si vuol fondare, fossero talmente
sicuri da non compromettere gli esiti delle dimostrazioni. Tali metodi finitistici si riducono
a elementari e intuitivi procedimenti di tipo combinatorio che vengono usati, per esempio,
per manipolare sempre un numero finito di oggetti e funzioni ben determinabili.
L’intuizione rientra quindi nel tentativo hilbertiano di fondare la matematica, ma non è che
essa stabilisca – per intuizione, appunto – le proprietà di determinati enti matematici; essa
concerne unicamente l’effettuazione di operazioni semplicissime e così sicure ed
elementari da essere accettate alla base di ogni ricerca teorica.
Le idee di Hilbert furono accolte da geniali matematici tra i quali sono da menzionare Paul
Bernays (1888-1977), Jacques Herbrandt (1908-1931), Wilhelm Ackermann (1898-1962)
e Johann von Neumann (1903-1957). E durante gli anni Venti, dopo alcuni successi
iniziali, si pensava che il programma di Hilbert potesse veramente venir condotto in porto.
Nel 1928, Hilbert aveva nel frattempo impostato il problema della completezza della
teoria dei numeri, s’era cioè chiesto se gli assiomi di Peano della teoria elementare dei
numeri erano o non erano capaci di dimostrare o di refutare ogni proposizione di quella
teoria.
Ebbene, nel 1931, Kurt Gödel (1906-1978) dimostra (nello scritto: Proposizioni
formalmente indecidibili dei «Principia Mathematica» e di sistemi affini) che non è
possibile costruire una teoria assiomatica dei numeri che goda della completezza voluta da
Hilbert.
Ma le cose andarono ben oltre giacché, da questo primo risultato, Gödel trasse il corollario
per cui un calcolo logico, con potenza sufficiente per formalizzare l’aritmetica elementare
è tale che in esso è indimostrabile la formula che esprime la sua coerenza. La coerenza
dell’aritmetica, quindi, non si può ottenere usando gli strumenti appartenenti al sistema
formale con cui si esprime l’aritmetica.
Tale risultato stabiliva a chiare lettere il fallimento del programma hilbertiano (dato che i
metodi finitistici usati da Hilbert per la dimostrazione della non-contraddittorietà
dell’aritmetica sono anch’essi formalizzabili all’interno del sistema assiomatico
dell’aritmetica).
Gödel fece insomma vedere che era impossibile una prova puramente sintattica della non-
contraddittorietà di un sistema formale almeno così ricco da esprimere l’aritmetica
elementare.
Da allora in poi la garanzia della coerenza dei sistemi formali o calcoli verrà cercata nelle
interpretazioni che siano «modelli» di tali calcoli.

La semantica di Tarski e l’intuizionismo di Brouwer


Occorre qui menzionare il saggio di Alfred Tarski (1902-1983) Il concetto di verità nei
linguaggi formalizzati (1934) sulla semantica dei sistemi formali (che in seguito si
svilupperà in quella importante branca della logica-matematica costituita dalla «teoria dei
modelli»).
Qui Tarski precisa i due concetti di verità e di conseguenza logica. La verità va intesa
come accordo con i fatti: «l’asserto “la neve è bianca” è vero se e solo se la neve è
bianca»; tra l’altro, Tarski ci dice che, se abbiamo una definizione di verità come accordo
di asserti con fatti, non abbiamo un criterio di verità: possiamo sempre sbagliarci nel dire
che una teoria è vera. La conseguenza logica, da parte sua, è una nozione semantica e non
sintattica come quella di «derivabilità».
Tarski indaga quindi le possibili relazioni tra i linguaggi formalizzati e gli insiemi di
oggetti sui quali tali linguaggi possono venir interpretati in maniera da dare origine a
proposizioni vere su quegli oggetti.
Dopo i risultati di Gödel, la semantica logica ha acquistato una importanza sempre più
centrale, giacché è possibile dimostrare che, se un calcolo ammette un modello, tale
calcolo è allora coerente. Si viene così ad avere una prova di coerenza di tipo semantico.
Non è possibile terminare queste note sulla matematica del XX secolo senza un accenno
all’intuizionismo. Se i platonisti come Frege vedono gli enti matematici come enti
esistenti di per sé e da scoprire; se i formalisti come Hilbert pensano che un ente si può
considerare matematicamente esistente se lo si definisce senza contraddizioni; l’olandese
Luitzen Egbertus Jan Brouwer (1881-1966) e i suoi seguaci, tra cui Arend Heyting (1898-
1980), sostengono che un ente va inteso matematicamente esistente solo se si riesce a
costruirlo, cioè soltanto a patto che siamo in grado di darne un esempio o di indicare
quella procedura che, attraverso un numero finito di passaggi, ci permette di arrivare a un
simile esempio.
Questa concezione, la concezione intuizionistica, vieta il ricorso all’infinito attuale. E se si
parla di infinito, se ne parla unicamente non nella maniera della teoria degli insiemi, ma
nel senso che, per esempio, ogni punto che sia stato eventualmente raggiunto, può essere
superato. L’infinito è potenziale e mai attuale. L’infinito attuale non è costruibile. D’altro
canto, se esistenza di un ente matematico significa la sua effettiva costruzione ossia la sua
avvenuta costituzione, allora quel tipo di dimostrazione che è nota come legge del terzo
escluso («per ogni proposizione p, o p o non p») non può essere accettato. È ovvio che, se
si lavora accettando le regole degli intuizionisti, costruendo uno a uno gli enti matematici,
allora verranno evitati i pericoli delle antinomie.
L’intuizionismo, agli inizi, verso gli anni Venti, non venne compreso e, con la sua carica
polemica, sembrò voler buttare a mare molta della matematica «classica». Oggi le cose
sono mutate; l’intuizionismo ha mostrato tutta la sua fecondità ed è una delle correnti più
interessanti della matematica contemporanea.
Kurt Gödel con Albert Einstein
LO SVILUPPO DELLA FISICA

II
Questioni generali

Sappiamo già che lo sviluppo della fisica nell’Ottocento si presta a una schematizzazione
abbastanza semplice, in termini di successo e successiva caduta del programma di ricerca
meccanicistico. Per quanto riguarda la fisica del Novecento, invece, evidentemente non
sono possibili valutazioni complessive altrettanto chiare. Tuttavia, da quel che si può
vedere, non pare che la ricerca fisica attuale stia seguendo una via di sviluppo descrivibile
con altrettanta linearità.
Possiamo semmai dire che, finora, la ricerca è stata caratterizzata da un fondamentale
dualismo di programmi. Il primo si è sviluppato nei primi decenni del secolo, a partire
dalla crisi della meccanica nel suo impatto con l’elettromagnetismo e attorno al paradigma
relativistico einsteiniano. Mentre alla fine dell’Ottocento, dallo studio dei fenomeni di
interazione tra la materia e le radiazioni, si sviluppava l’altro, quello quantistico.
I due programmi, pur convergendo talvolta (esiste infatti anche una quantistica
relativistica), in sostanza si riferiscono a due livelli ben diversi d’osservazione: entrambe
le teorie, infatti, ammettono la fisica classica come ottima approssimazione per valori
delle grandezze fisiche entro i limiti della nostra quotidiana esperienza; ma la quantistica
diventa necessaria per fenomeni a livelli microscopici (per esempio fenomeni atomici,
nucleari o sub-nucleari), e la relatività per velocità e lunghezze molto grandi, per esempio
su scala astronomica.
Di conseguenza, i due programmi vanno studiati distintamente e un’unificazione tra di essi
non pare ancora vicina; mentre un motivo d’incompatibilità non è stato ancora osservato e
neppure ipotizzato.
Assieme alla teoria dei quanti si è inoltre sviluppata la ricerca sul nucleo e le sue parti:
essa è estremamente ardua a descriversi in termini elementari, ma non potrà mancare
qualche cenno anche a essa. In chiusura, descriveremo sommariamente i nuovi rapporti
che si sono istituiti tra la fisica e le altre scienze della natura negli ultimi decenni, e
parleremo così della genesi e della costituzione di alcune discipline di «confine».

Einstein e le teorie della relatività

A cavallo tra i due secoli, molti tentativi erano stati fatti per ricomporre il contrasto tra le
teorie di Maxwell e di Newton. L’ultimo è stato effettuato da Henri Poincaré. Questi, come
abbiamo già visto, accetta la teoria di Lorentz e il principio di relatività classica, secondo
il quale i fenomeni fisici devono rispettare le stesse leggi se osservati da sistemi di
riferimento che si muovono l’uno rispetto all’altro di moto rettilineo e uniforme; ma
conserva l’idea dell’etere come realtà fisica. Le opere di Poincaré e di Lorentz appaiono
tra la fine dell’Ottocento e i primi del Novecento.
Ma nel 1905, Albert Einstein (1879-1955) pubblica i fondamenti della nuova teoria
risolutiva, nota come «teoria della relatività ristretta», nello storico articolo
Sull’elettrodinamica dei corpi in movimento. Ecco il nucleo centrale della teoria:
Il nucleo teorico I fenomeni dell’elettrodinamica così come della
della teoria della meccanica non possiedono proprietà
relatività ristretta corrispondenti all’idea di una quiete assoluta.
Essi suggeriscono piuttosto che […] le stesse
leggi dell’elettrodinamica e dell’ottica siano
valide per tutti i sistemi di riferimento per cui valgono le equazioni della meccanica.
Innalzeremo questa congettura […] allo stato di postulato, e inoltre introdurremo un
altro postulato che è soltanto apparentemente inconciliabile con il primo, e cioè che
la luce si propaga sempre nello spazio vuoto con una velocità definita che è
indipendente dallo stato di moto del corpo emittente.
Il primo postulato elimina l’esigenza dell’etere. Esso, inoltre, sarebbe incompatibile con il
secondo, se si mantenessero le trasformazioni di Galileo: a esse, Einstein sostituisce quelle
di Lorentz, ricavandole indipendentemente a partire dai due postulati. La teoria comporta
una riformulazione dei tradizionali concetti di spazio e tempo. Si possono infatti su questa
base dimostrare dei teoremi che risultano in contrasto con l’«esperienza comune», per
esempio:
– la durata di un fenomeno su un corpo in movimento è maggiore di quella dello stesso su
un corpo in quiete;
– due fenomeni simultanei rispetto a un osservatore possono non esserlo rispetto a un
altro, e viceversa;
– la lunghezza di un regolo si riduce nella direzione del suo movimento; la massa di un
corpo aumenta con la sua velocità;
– e, soprattutto, quella famosa legge che sta alla base di tanti fenomeni nucleari, secondo
la quale la massa equivale a una quantità d’energia data dalla formula E = mc2 (E è
l’energia; m è la massa; c è la velocità della luce).
Tutto ciò ha consentito numerosi e accuratissimi controlli, che hanno dato alla teoria forti
corroborazioni. Il passaggio dalla meccanica classica alla relatività ristretta è stato preso
da Kuhn come uno dei migliori esempi di «rivoluzione scientifica», intesa come
transizione da un paradigma a un altro non cumulativa ma con rifondazione teorica
globale.
La relatività ristretta si afferma in breve tempo, superando ostacoli e opposizioni. Ma, solo
undici anni dopo, ancora Einstein propone una teoria nuova che supera, generalizzandola,
la precedente. Difatti, rimuovendo la limitazione a moti rettilinei uniformi, egli afferma
che le leggi della fisica sono le stesse se osservate da qualunque sistema di riferimento,
anche se accelerato, purché si tenga conto anche degli effetti del campo gravitazionale
eventuale: è il nucleo della teoria della relatività generale.
Per giungere a tale risultato, Einstein parte dalla constatazione che la massa di un corpo è
la stessa se misurata secondo la legge di gravitazione universale o la 2a legge della
dinamica (la massa inerziale è uguale alla massa gravitazionale): da ciò consegue la
possibiltà di riferire ogni effetto acceleratorio a opportuni campi gravitazionali,
eventualmente apparenti, che modificano la struttura geometrica dello spazio. Per cui, in
ultima analisi, ogni problema fisico va risolto mediante lo studio delle proprietà
geometriche dello spazio.
Questa teoria contiene quella «ristretta» come caso limite: conserva quindi tutte le
conseguenze della precedente, e ve ne aggiunge altre che la espongono a controlli
sperimentali ulteriori. Tra questi, oltre alle esatte traiettorie di vari pianeti, ricordiamo la
deflessione di un raggio di luce a opera di un campo gravitazionale (Arthur Stanley
Eddington, 1919) e lo spostamento delle righe spettrali della luce emessa da stelle di
grande massa (Walter Sydney Adams, 1924). Si apre qui una via di sviluppo di «scienza
normale», consistente da un lato nell’elaborazione della sempre più ardua parte
matematica, e dall’altro nel sottoporre la costruzione teorica a controlli sperimentali
sempre più accurati e, finora, sempre con esito positivo. Tra i numerosi esperimenti,
grandi interessi si appuntano sull’eventualità di rilevare le onde gravitazionali di origine
cosmica, così come si rilevano le onde elettromagnetiche.

La teoria dei quanti

Un’altra, diversa via di ricerca nacque invece, come già si è detto, dallo studio dei
fenomeni d’interazione tra la materia e le radiazioni. «Quanto» è il termine coniato da
Max Planck (1858-1947) per la soluzione di un problema di emissione elettromagnetica: il
problema del «corpo nero» (concetto astratto, matematico, che indica un oggetto che
assorbe tutta l’energia raggiante incidente trasformandola in calore). La funzione che
esprime l’energia emessa da un corpo nero al variare della temperatura (Josef Stefan,
1879) era risultata incompatibile con la termodinamica, e quindi con la meccanica
classica.
La soluzione di Planck (1900) consiste nell’ipotizzare che l’energia non venga emessa o
assorbita sotto forma di radiazione dalla materia con continuità, cioè per valori qualunque,
ma solo per multipli interi di una certa quantità pari al prodotto tra la frequenza ν della
radiazione e una certa costante h, la costante di Planck; la quantità hν è appunto chiamata
«quanto d’energia» e la costante h «quanto d’azione».
Quel che ci interessa dal punto di vista concettuale è che Planck arriva alla sua scoperta
rifiutando di tentare di adattare le teorie esistenti all’evidenza sperimentale contraria: in
questo senso, è paragonabile a Einstein. E proprio da Einstein viene la prima verifica della
teoria di Planck. Egli ipotizza che qualunque radiazione sia quantizzata, e chiama
«fotone» la particella corrispondente a una radiazione di frequenza ν, avente energia hνe
quantità di moto hν/c: ciò gli consente d’inquadrare nella teoria l’effetto fotoelettrico,
fornendole così corroborazione. Nel 1923 gli riuscirà un’analoga operazione nei riguardi
della diffusione di raggi x o γ da parte di elettroni (effetto Compton).
Si fuse presto con quello sulla quantistica lo studio della struttura dell’atomo, iniziato da
Joseph John Thomson (1856-1940) nel 1897 con la scoperta dell’elettrone, la cui carica è
stata determinata da Robert Andrews Millikan (1868-1953) tra il 1908 e il 1911.
Ben presto, vengono proposti per l’atomo due diversi modelli: secondo Jean-Baptiste
Perrin (1870-1942), esso è formato da un nucleo centrale attorno al quale ruotano gli
elettroni (1901); secondo Lord Kelvin (1824-1907), vi è in esso una distribuzione
uniforme di carica positiva all’interno della quale si trovano gli elettroni in condizioni
d’equilibrio (1902).
Si tratta di due diversi programmi di ricerca scientifici in competizione: l’uno «nucleare» e
l’altro «non nucleare»: sarà Ernest Rutherford (1871-1937), con la storica esperienza del
fascio di particelle α (nuclei di elio) contro la lastra d’oro sottilissima, a far prevalere il
primo programma (1911).
Nasceva allora il problema di quale fosse la situazione degli elettroni attorno al nucleo. La
prima risposta (1913) venne da Niels Henrik David Bohr (1885-1962): egli ipotizzò che
gli elettroni ruotassero secondo orbite circolari ben precise, calcolabili secondo le leggi
della quantizzazione energetica, e che gli atomi assorbissero ed emettessero energia
mediante salti degli elettroni da un’orbita a un’altra, più alta o più bassa, rispettivamente.
Il modello venne presto (1916) perfezionato da Arnold Johannes Wilhelm Sommerfeld
(1868-1951). Le prime corroborazioni, ma anche delle parziali falsificazioni, vengono da
esperimenti di spettroscopia: tuttavia la storica esperienza (1921-1922) di Otto Stern
(1888-1969) e Walter Gerlach (1889-1979) dà alla teoria di Bohr, e all’intera quantistica,
una delle conferme più sostanziali.
È chiaro che queste idee per i livelli microscopici contrastano con le idee di Maxwell per i
livelli macroscopici: ma è lo stesso Bohr a superare la potenziale contraddizione,
proponendo (1916) di interpretare la teoria di Maxwell come una descrizione statistica di
ciò che avviene per un grande numero di componenti elementari. È questa la prima
enunciazione del principio di corrispondenza che rappresenta una delle chiavi per
comprendere e applicare la teoria dei quanti. L’idea non è dissimile da quella che
nell’Ottocento aveva consentito di superare il potenziale contrasto che si era evidenziato
tra la termodinamica macroscopica e la meccanica classica applicata microscopicamente.
Nel 1924 la teoria si arricchisce ulteriormente per opera di Louis-Victor De Broglie (1892-
1987). Egli ipotizza che, come a ogni onda elettromagnetica corrisponde un corpuscolo,
viceversa anche a qualunque particella, con massa a riposo mo e velocità v, corrisponde
un’onda di lunghezza λ= h/mov, ponendo così le basi per un nuovo filone di studio teorico,
la cosiddetta meccanica ondulatoria.
Dalla constatazione, sorretta da una base sperimentale sempre più ampia, che non è
possibile rinunciare nello studio dei fenomeni meccanici ed elettromagnetici né al modello
corpuscolare né a quello ondulatorio, è ancora Bohr a teorizzare che ogni fenomeno
presenti in realtà due aspetti, entrambi veri e reciprocamente complementari ed
escludentisi. È questo il principio di complementarità, base della legge quantitativa
d’indeterminazione formulata da Werner Heisenberg (1901-1976), che stabilisce dei
precisi limiti nella possibile determinazione simultanea di grandezze che si riferiscono ai
due aspetti complementari; per esempio è impossibile determinare, a un dato istante, la
posizione e il momento (cioè il prodotto tra velocità e massa) di una particella con
precisioni piccole a piacere: tanto più si determina l’una grandezza, con precisione tanto
minore è possibile determinare l’altra, e viceversa.
La meccanica ondulatoria trova una sistemazione teorica con Erwin Schrödinger (1887-
1961), che determina l’equazione a cui deve obbedire l’onda di De Broglie (1926); Max
Born (1882-1960) interpreta tale equazione di onda come un dato di significato
probabilistico. Siamo così alle basi dell’interpretazione dell’intera teoria dei quanti in
senso indeterministico: una visione, cioè, ben diversa da quella che era prevalsa, nel
secolo precedente, per la meccanica classica. Non che fossero mancate interpretazioni
opposte, per esempio quella detta «delle variabili nascoste» che tendeva a ricondurre
l’indeterminazione osservata all’esistenza di alcune variabili non conosciute. In ogni caso,
l’interpretazione vincente è risultata l’interpretazione di Copenaghen, che si è diffusa
forse anche per il ruolo della figura di Bohr sia nel centro di ricerca di Copenaghen –
diretto e fondato dallo stesso Bohr, e al quale hanno fatto capo Heisenberg, Born, Paul
Dirac (1902-1984), Wolfgang Pauli (1900-1958), e molti altri tra i più prestigiosi studiosi
del tempo –, sia nei congressi organizzati a partire dal 1911 da Ernest Solvay (1838-1922)
e proseguiti dopo la sua morte.
Nella Logica della scoperta scientifica, Popper stigmatizza questo tipo di concezione,
perché pone dei limiti di principio alla conoscenza possibile, e quindi alla stessa ricerca
scientifica di base; e osserva che si può far progredire la conoscenza solo cercando di
andare oltre i limiti attuali, e non imponendosi di rimanerne al di qua.
La teoria dei quanti trova una prima assiomatizzazione nel 1927 a opera di Dirac ed Ernest
Pascual Jordan (1902-1980), e una seconda, più generale, elaborata verso il 1930 da
Johann von Neumann (1903-1957).
Da quei giorni, lo studio della quantistica consisterà, più che altro, nell’estenderne le
applicazioni e nel rivederne la formulazione in modo più accurato, senza alcuna critica ai
principi fondamentali. Come per la relatività, quindi, si apre un periodo di «scienza
normale»: nei limiti, almeno, nei quali tale termine è applicabile a una scienza in un
periodo in cui essa è dominata da due paradigmi anziché da uno solo.
Tra il 1925 e il 1940 vengono sviluppate e studiate le prime equazioni che applicano
insieme le due teorie fondamentali: tra gli autori più noti, Schrödinger, Pauli, Dirac, Oskar
Klein, Walter Gordon, Ettore Majorana (1906-1938). Le ricerche nel settore sono tuttora
in corso: ma i numerosi e continui tentativi di costruire una teoria unificata della natura
non hanno a tutt’oggi sortito alcun effetto significativo, nonostante vi si siano cimentati
studiosi quali Einstein e Heisenberg.
Innovazioni di fondo successive possiamo invece trovare nel settore nel quale l’unico
limite che il ricercatore ha incontrato è stato quello della strumentazione tecnica, peraltro
in rapida evoluzione: la struttura interna del nucleo.

Fisica atomica, nucleare e sub-nucleare

Dopo la scoperta dell’elettrone e della struttura nucleare dell’atomo, l’attenzione dei fisici
si è concentrata su quest’ultimo: nel 1925, infatti, Pauli formula quel principio
d’esclusione che consente di collocare gli elettroni attorno al nucleo in modo coerente con
le scoperte della chimica, e da quel momento lo studio delle strutture elettroniche diverrà
di competenza dei chimici.
È ancora Bohr a chiamare «protoni» le particelle cariche positivamente presenti nel
nucleo. Le esperienze di Francis William Aston (1887-1945) negli anni 1919-20 sugli
isotopi (scoperti nel 1913 da Frederick Soddy, 1877-1956) fanno sorgere l’esigenza di un
terzo tipo di particelle, pesanti ed elettricamente neutre: i «neutroni», la cui esistenza viene
dimostrata sperimentalmente da James Chadwick (1891-1974) nel 1932. Vengono allora
proposti i primi modelli del nucleo (Hans A. Bethe, 1906-2005; Gian Carlo Wick, 1909-
1992; e soprattutto Bohr con John Archibald Wheeler, 1911-2008).
Ma il quadro si è rapidamente complicato per la scoperta di un gran numero di nuove
particelle elementari, a cominciare dalla famiglia dei «mesoni», il cui primo componente
era stato teorizzato da Heisenberg e Majorana, e sperimentalmente rilevato da Hideki
Yukawa (1907-1981) nel 1935.
Notevole è la storia di un’altra particella elementare: il «neutrino». Essa era stata
escogitata da Pauli nel 1930, per far quadrare i conti relativi a certi fenomeni radioattivi, e
la teoria era formulata in maniera tale da non consentirne in alcun modo la rilevazione con
la strumentazione al tempo disponibile. Si trattava quindi di una teoria che aveva tutto
l’aspetto di un’«ipotesi ad hoc» per salvare la teoria dei quanti da evidenze
apparentemente contraddittorie. La prova sperimentale dell’esistenza del neutrino, e
quindi l’effettivo ingresso della teoria nell’ambito della scienza, si poté avere solo circa
trent’anni dopo.
La scoperta del neutrone ha comportato l’introduzione di un terzo tipo di forza, oltre a
quelle gravitazionale ed elettromagnetica: l’interazione forte; e lo studio del neutrino ne
evidenziò una quarta, l’interazione debole. Per decenni si sono succeduti dei tentativi di
unificare le teorie delle quattro forze fondamentali della natura: ma, finora, si sono ottenuti
solo dei risultati parziali.
È invece più avanzato il processo di semplificazione dei componenti elementari della
natura: le oltre cento particelle che si sono teorizzate e sperimentate dagli anni Trenta a
oggi sembra possano essere ricondotte a combinazioni di poche particelle sub-elementari
(3, 4, 5, 6…) dette «quarks», e ipotizzate per primo da Murray Gell-Mann (n. 1924).
La prima teoria in tal senso è stata avanzata più di recente, e ancor più recenti sono i primi
dati sperimentali significativi in proposito. Rapida è invece stata l’acquisizione degli studi
nucleari alle applicazioni tecniche: la via aperta da Rutherford, di sperimentare il
bombardamento dei nuclei con particelle più piccole, si è rivelata molto fertile; specie
dagli anni Trenta, con la disponibilità di apparecchi in grado di dare ai proiettili velocità
elevate (Robert Jamison van der Graaf, 1901-1967; Ernerst Orlando Lawrence, 1901-
1958). Tra gli sperimentatori di quel periodo si distinguono i coniugi Frédéric Joliot
(1900-1958) e Irène Joliot-Curie (1897-1956); e il gruppo di Roma diretto da Enrico
Fermi (1901-1954): Edoardo Amaldi (1908-1989), Emilio Segré (1905-1989), Bruno
Pontecorvo (1913-1993), Franco Rasetti (1901-2001), Majorana, Wick.
Da queste ricerche viene presto scoperto che un atomo di uranio colpito da protoni può
rompersi in due parti liberando alcuni neutroni e un’enorme quantità d’energia (la fissione
nucleare, 1938: Otto Hahn, 1879-1968, e Fritz Strassmann, 1902-1980), e che i neutroni
liberati possono, in determinate condizioni, spaccare altri nuclei d’uranio in successione
continua (reazione a catena, teoria del 1939, soprattutto di Hans von Halban e Francis
Perrin, figlio di Jean-Baptiste).
Queste due scoperte condurranno Fermi alla pila atomica (1942) e altri alla bomba
atomica (1945). La teoria per le due diverse applicazioni è la stessa: nel primo caso la
reazione a catena viene rallentata con la frapposizione tra i vari blocchi d’uranio di
particolari sostanze che rallentano la diffusione dei neutroni, mentre nel secondo caso essa
avviene con velocità enorme, sviluppando l’energia in brevissimo tempo. La prima è alla
base del funzionamento delle centrali elettronucleari, dei motori a propulsione nucleare e
di tante altre applicazioni pacifiche; la seconda, invece, di micidiali ordigni bellici.
Ma la bomba a fissione non è il più potente ordigno distruttivo finora realizzato: negli anni
Cinquanta viene sperimentata e quindi riprodotta in numerosi esemplari una bomba che si
basa sull’aggregazione di più nuclei di idrogeno per ottenere elio e molta energia (la
fusione nucleare). Fortunatamente, essa non è mai stata sperimentata sull’uomo, ma non si
è ancora riusciti a controllare questa reazione nucleare, facendola sviluppare lentamente:
se la cosa fosse possibile, il problema energetico sarebbe risolto per secoli. Le ricerche nel
campo sono vive.

Le discipline di confine

Abbiamo seguito, a partire dai primi dell’Ottocento, un processo di progressiva


specializzazione degli scienziati, e oggi ne vediamo gli effetti esasperati. Sarebbe però un
errore scorgere in esso un carattere distintivo della scienza avanzata: la ripartizione delle
conoscenze in discipline è spesso una pura convenzione, e la specializzazione è un caro
prezzo che si è pagato alla vertiginosa rapidità del progresso.
Come Popper ha dimostrato, la scienza ha origine dai problemi, e i problemi generalmente
non sono inquadrati negli schematismi disciplinari. Vanno quindi intesi come opportuni
correttivi della anomala situazione nella quale versa la ricerca scientifica attuale,
caratterizzata da due realtà metodologiche emerse nel XX secolo.
La prima realtà è l’istituzione di équipes formate da studiosi di culture e formazioni
diverse. Ottimi esempi della validità e della proficuità di questo modo di ricercare si
possono trovare nei progressi della ricerca biomedica, in particolare quelli che hanno
portato alla biologia molecolare. Tra i fisici che si sono cimentati nel settore, assieme a
medici, chimici e biologi, ricordiamo Max Delbrück (1906-1981), Francis Harry Compton
Crick (1916-2004) e i già citati Bohr, Schrödinger e Jordan. Un’altra figura emblematica,
per la molteplicità dei suoi campi d’interesse, è quella del chimico, fisico e biologo Linus
Pauling (1901-1994).
La seconda realtà è costituita dalla nascita e dallo sviluppo delle discipline di «confine», a
cavallo cioè tra i settori disciplinari tradizionali: tra queste, ricordiamo la chimica-fisica,
l’astrofisica, la biochimica, la biofisica, la geofisica, e molte altre. Queste vere e proprie
nuove discipline, anziché contribuire alla settorializzazione ulteriore, costituiscono dei
canali attraverso i quali le discipline e i ricercatori riprendono a comunicare dopo lunghi
periodi di separazione. Ritroviamo così un orientamento verso quell’unitarietà della
ricerca scientifica che si era andata perdendo nel secolo scorso.
LA BIOLOGIA DOPO DARWIN

III
Il neodarwinismo: August Weismann e Hugo De Vries

Darwin aveva, nella sostanza, affermato due cose:


1 le specie si evolvono, non sono immutabili, si sviluppano gradualmente dando così
origine alle differenti specie;
2 il meccanismo essenziale della evoluzione della specie è dato dalla selezione naturale:
l’ambiente preme sulle variazioni degli individui, scarta gli individui con variazioni
sfavorevoli e preserva gli individui che nella lotta per l’esistenza posseggono gli attrezzi
più idonei per adattarsi all’ambiente.
Ora, è chiaro che la selezione può agire solo se vi sono differenze individuali trasmissibili
ai discendenti, giacché qualora gli individui di una specie fossero tutti uguali o i caratteri
per i quali differiscono non fossero trasmissibili per eredità, la teoria di Darwin non
potrebbe sussistere. Ebbene, che gli individui di una specie siano diversi uno dall’altro è
un dato di fatto. Ma a questo punto si pongono due ulteriori grosse questioni:
a Quali sono le cause di differenze individuali?
b Se queste differenze sono ereditarie, in quale maniera esse si trasmettono ai discendenti?
Darwin, come si rileva anche dalle ultime edizioni dell’Origine delle specie, si era
pronunciato per l’ereditarietà dei caratteri acquisiti dagli organismi sotto l’azione
dell’ambiente; e su ciò si accostava a Lamarck, anche se del lamarckismo egli negava
l’idea di una tendenza interna, insita negli organismi, e che avrebbe spinto questi al
perfezionamento.
Hugo De Vries

Questa idea venne in qualche modo difesa dallo svizzero Karl Wilhelm von Nägeli (1817-
1891), con la sua teoria dell’ortogenesi, dove si parla di una forza psico-chimica analoga
alla forza d’inerzia della meccanica.
Lo zoologo tedesco August Weismann (1834-1914), uno dei rappresentanti più agguerriti
del «neodarwinismo», si scagliò contro la proposta neolamarckista rifiutando in modo
totale l’influsso dell’ambiente e rigettando l’idea dell’ereditarietà dei caratteri acquisiti.
Egli, a conferma della sua concezione, tagliò la coda a topolini neonati di parecchie
generazioni successive, e vide che tutti i topolini nascevano con coda regolare senza
trasmettersi questo carattere acquisito.
Questi esperimenti di Weismann e altri ancora più accurati corroborarono la teoria per cui
le variazioni (colore, altezza ecc.), sulle quali agisce poi la selezione, non provengono
dall’ambiente (che istruirebbe l’organismo) ma dal di dentro dell’organismo.
Nel Saggio sulla ereditarietà e su questioni biologiche connesse (1892) Weismann
distingueva tra il germoplasma, responsabile della trasmissione dei caratteri ereditari, e il
soma o plasma del corpo. Il germoplasma, dice Weismann, è la parte più importante di un
organismo: è il germoplasma, infatti, a determinare le forme e le caratteristiche assunte dal
plasma del corpo. Il corpo serve soltanto a nutrire il germoplasma in modo che sia
possibile che questo si riproduca. Qui si trova la ragione – afferma Weismann – per cui le
modificazioni del soma (come la coda mozzata dei topolini) non sono ereditarie.
Weismann, pur muovendosi tra argomenti difficili e nuovi, tentò di spiegare l’origine della
variabilità attribuendone la responsabilità alla riproduzione sessuale: la riproduzione
sessuale unisce due patrimoni ereditari in una miscela (che Weismann chiamò
«anfimissi») che sarebbe fonte di variabilità. (Più tardi, la genetica confermerà, ma
limitandone la portata, la teoria di Weismann, nel senso che ogni fecondazione ricombina i
geni esistenti in una popolazione.)
Nel frattempo il botanico olandese Hugo De Vries (1848-1935), osservando una pianta
ornamentale, la Oenothera lamarckiana, ormai rinselvatichita nelle campagne olandesi, si
accorse che, oltre al tipo «normale» della specie, esistevano nella popolazione della pianta
degli individui fortemente differenti dal tipo normale, per caratteri come la statura
(c’erano individui nani e individui giganti), la forma delle foglie, e così via.
De Vries fece riprodurre questi individui «strani» e constatò che i loro caratteri aberranti si
ritrasmettono alle generazioni successive. De Vries coglieva, dunque, l’evoluzione in atto:
una specie riproduce, oltre agli individui normali, anche individui vistosamente
nonnormali (nella percentuale di 1 o 2%). A queste variazioni vistose (che si ritrasmettono
ereditariamente) De Vries dà il nome di «mutazioni».
Darwin aveva osservato alcune di queste variazioni di grossa portata, gliene avevano
anche parlato gli allevatori che le chiamavano «sports», ma non aveva dato loro gran peso,
e la sua idea era che la selezione agisce su variazioni piccole, di minima entità.
De Vries corresse questa concezione proponendo, sulla base delle sue osservazioni, l’idea
di evoluzione a salti: ogni specie produce, in una certa epoca della sua esistenza,
mutazioni, cioè individui che si allontanano di parecchio dalla norma, e la selezione agisce
su questo materiale fortemente variato («mutato»), con la conseguenza che più specie
possono evolversi da una specie originaria, e magari, se trovano le condizioni favorevoli,
in ambienti disparati.
In ogni caso, anche De Vries, pur sostenendo che le mutazioni sono sostanzialmente
indipendenti dall’ambiente, ignorava le cause di tali mutazioni.
Ecco, pertanto, i due contributi di maggior rilievo del «neodarwinismo»: la variabilità è
indipendente dall’ambiente; la selezione opera su variazioni vistose, cioè su mutazioni, su
caratteri di nuova comparsa. Ma, in ogni caso, di problemi ne restavano, e si trattava di
grossi problemi.
La teoria della evoluzione, infatti, trova un suo cardine nelle dissomiglianze o variazioni
che, all’interno di una specie, contraddistinguono i diversi individui. Conseguentemente,
essa non poteva evitare gli interrogativi precedentemente accennati e doveva ancora,
nonostante i contributi di ricercatori come Weismann e De Vries, tornare su di essi: per
quali ragioni sorgono le variazioni?, e in che modo esse si trasmettono nella riproduzione?
Sono i problemi che stanno all’origine di quella nuova disciplina alla quale nel 1906 si
darà il nome di genetica.

La scoperta dei cromosomi e la riscoperta delle leggi di Mendel


La genetica si inquadra all’interno della teoria evolutiva in quanto tale teoria si trovava
nella necessità di render conto dei meccanismi dell’eredità biologica. Come sappiamo, già
dal 1866 Mendel aveva scoperto le leggi che sono a fondamento della genetica. Egli aveva
inviato i risultati delle sue ricerche a Nägeli, il quale però non ne percepì l’importanza.
Mendel incrociò e fertilizzò artificialmente una varietà alta e una bassa di piselli dolci e
ottenne semi che producevano soltanto piante alte. Queste, autofertilizzate, producevano
piante alte e basse nella percentuale di 3 a 1. Da 1/4 delle piante basse così ottenute si
riproducevano solo piante basse, mentre dai 3/4 delle piante alte, una parte (il 25% del
totale della seconda generazione) producevano solo piante alte, mentre il rimanente 50%
dava luogo, riproducendosi, al 75% di piante alte e al 25% di piante basse. Questa è la
prima legge di Mendel: la legge della segregazione.
Se poi si incrociano piante o animali che differiscono per più di una coppia di caratteri,
allora questi si ricombinano secondo tutti i modi possibili. Questa è la seconda legge di
Mendel: la legge dell’indipendenza. Così, per esempio, se incrociamo piselli a seme giallo
e liscio con piselli a seme verde e ruvido, si ottengono, alla prima generazione, piante con
semi che presentano i due caratteri dominanti, per esempio giallo e liscio; alla seconda
generazione, otteniamo quattro tipi di individui che esprimono le quattro combinazioni
possibili, due già introdotte nell’incrocio e due nuove: giallo-liscio, giallo-ruvido, verde-
liscio, verde-ruvido.
Gregor Mendel

Scoperte forse in anticipo sui tempi, le leggi di Mendel vennero riscoperte agli inizi del
Novecento, e i tempi erano allora ormai maturi per vederne la rilevanza e la fecondità.
Difatti, tra il 1870 e il 1880 il tedesco Walther Flemming (1843-1905), usando una
sostanza colorante (la cromatina), scoprì che all’interno del nucleo della cellula c’erano
degli oggetti filiformi, i cromosomi; e vide che al momento cruciale della divisione della
cellula (mitosi) ogni cromosoma produceva una copia di se stesso.
Flemming pubblicò questi suoi risultati nel 1882. Continuando le ricerche del citologo
tedesco, il belga Edward van Beneden (1846-1910) dimostrò che essi sono in numero fisso
e costante per ogni specie animale o vegetale: le cellule dell’uomo ne contengono 46, cioè
23 coppie; il granoturco ne ha 20, cioè 10 coppie; la mosca 12, cioè 6 coppie; la
Drosophila (il moscerino dell’aceto che sarà poi l’eroe della genetica), 8, cioè 4 coppie.
(Ognuno dei due cromosomi costituenti una coppia appunto di cromosomi proviene
rispettivamente dal padre e dalla madre.)
Per di più, van Beneden scoprì che nella formazione delle cellule sessuali (l’uovo e lo
spermatozoo) la divisione dei cromosomi (per formare la nuova cellula) non era preceduta
dallo sdoppiamento. Se questo processo, la meiosi, non si verificasse, si avrebbe che a
ogni nuova generazione l’individuo che origina dall’unione di due cellule verrebbe ad
avere un corredo doppio di cromosomi.
A questo punto, vengono riscoperte le leggi di Mendel. E accade allora che tutti questi
studi sui cromosomi improvvisamente si illuminano e tutta una serie di precedenti
scoperte si assestano in un quadro razionale e consistente. Fu così che il citologo
americano Walter S. Sutton (1876-1916) fece notare – nel 1902 – che i cromosomi si
comportano come i fattori ereditari di Mendel: ogni cellula possiede un numero fisso di
coppie di cromosomi, e ognuno di essi trasferisce la capacità di determinare caratteri fisici
da una cellula all’altra.
Di ciascuna coppia di cromosomi del nuovo organismo un cromosoma proviene dalla
madre tramite l’uovo, mentre l’altro cromosoma proviene dal padre tramite lo
spermatozoo. Questo rimescolarsi dei cromosomi che si ha a ogni generazione tende a
riportare alla luce i caratteri recessivi messi precedentemente a tacere da un carattere
dominante. E le combinazioni sempre nuove producono quelle variazioni di caratteri che
saranno poi sfruttate dalla selezione naturale.

Dentro il cromosoma: i geni

Ma le cose non si fermarono qui, giacché nel periodo di tempo che corre tra il 1910 e il
1920, lo zoologo americano Thomas Hunt Morgan (1866-1945) mostrò che nei
cromosomi (che stanno, come sappiamo, all’interno del nucleo della cellula) sono
localizzati, e in maniera ordinata, i geni. Questi, concepibili come particelle materiali,
grandi come una grossa molecola di proteina, costituiscono il patrimonio ereditario
dell’individuo. Essi sono capaci di riprodursi conservando la propria individualità, la
propria indipendenza dagli altri geni, e quindi la capacità di ricombinarsi in tutti i modi
possibili, nonché la capacità di dare origine ai caratteri di cui sono i rappresentanti
(Giuseppe Montalenti).
Morgan lavorò sulla Drosophila melanogaster, un insetto che ha solo quattro coppie di
cromosomi e che si sviluppa dall’uovo allo stadio adulto solo in dodici giorni. Ebbene, le
indagini sulla Drosophila rivelarono che le caratteristiche che di solito vengono ereditate
insieme, talvolta, invece, si separavano. Tale fatto fu interpretato da Morgan nel senso che
il cromosoma contenente i geni si era spezzato tra le posizioni determinanti quelle
caratteristiche e si era poi unito a un frammento simile proveniente da un altro cromosoma
spezzato.
Nel 1927, intanto, Hermann Joseph Muller (1890-1967), un allievo di Morgan, pubblica
una scoperta sensazionale: bombardando con raggi x i gameti (vale a dire spermatozoi e
uova negli animali, granelli di polline e ovuli nelle piante) si ottiene una altissima
percentuale di mutazioni. Fu questa una scoperta di grande portata, giacché aprì la via a
ricerche concernenti il processo di mutazione e la natura e la struttura del gene.
Prima della seconda guerra mondiale, la genetica era dunque arrivata a stabilire che:
1 i geni rappresentano i caratteri ereditari;
2 i geni sono localizzati in un ordinamento lineare nei cromosomi;
3 i cromosomi sono costanti, per numero e qualità, in ogni specie;
4 tali strutture sono costanti e tuttavia suscettibili di variazioni;
5 «tali variazioni, cioè le mutazioni, si distinguono in tre categorie: geniche, costituite dal
passaggio di un singolo gene ad uno stato allelico; cromosomiche, cioè variazioni
strutturali di un singolo cromosoma, con conseguente variazione dell’ordine lineare dei
geni; e mutazioni genomiche, cioè variazioni del numero dei cromosomi, che pure, in certe
condizioni e con determinate limitazioni, sono possibili» (G. Montalenti).
Nel frattempo era cresciuta la biologia molecolare e il prossimo grosso balzo in avanti sarà
costituito dalla scoperta del codice genetico, che porta l’analisi all’interno del gene. Tutto
questo testimonia il grande sforzo umano per catturare nelle maglie della ragione la vita e
il suo sviluppo. E a tal riguardo c’è da dire che se la teoria dell’evoluzione è un tentativo
di comprendere la storia della vita, un altro inevitabile problema – con forti implicanze
filosofiche, anche questo – era ed è quello dell’origine della vita.
Prosegue, insomma, la vecchia controversia sulla generazione spontanea: la vita proviene
dalla materia, ovvero omne vivum e vivo? Oggi si sa che nessun organismo, a partire dai
batteri, nasce per generazione spontanea. È ben vero che la scoperta dei virus filtrabili
(ultra virus) parve costituire un passo serio verso l’abiogenesi. Tuttavia, essendo questi
virus dei parassiti, non è possibile vedere in essi l’origine della vita, in quanto
presuppongono l’esistenza di organismi più complessi come le cellule di cui sono
parassiti.
Più interessante è stata la proposta fatta successivamente da Harold Clayton Urey nel
1952-1953 e sperimentata da Stanley Miller nel 1953-1957 concernente la formazione di
composti organici complessi, come gli aminoacidi, che sono le molecole fondamentali
delle proteine le quali, a loro volta, costituiscono gli elementi basilari del protoplasma.
Ebbene, Miller ha per parecchi giorni sottoposto una miscela di acqua, idrogeno, metano e
ammoniaca a una scintilla elettrica proveniente da una corrente ad alta frequenza e ha
ottenuto molecole complesse come aminoacidi, urea eccetera. Ovviamente, questo
esperimento non è sufficiente a decidere della questione dell’origine della vita. Il
problema è aperto. Qui lo abbiamo solo accennato.

Il codice genetico

Per lungo tempo i genetisti hanno studiato i caratteri ereditari, preoccupandosi di chiarire
il meccanismo della loro trasmissione da un individuo a un altro, ma trascurando di
indagare la natura delle molecole che fanno da «vettore» di questa trasmissione. Si
conoscevano macromolecole come le proteine e gli acidi nucleici e si ipotizzava un loro
ruolo fondamentale nel fenomeno, ma un attacco sperimentale al problema delle basi
molecolari dell’ereditarietà non venne iniziato prima degli anni Quaranta.
Verso il 1944 Oswald Theodore Avery (1877-1955), dell’Istituto Rockfeller di New York,
aveva ottenuto buone prove che i tratti ereditari fossero trasmessi da una cellula batterica a
un’altra mediante l’acido desossiribonucleico (DNA). Si sapeva d’altra parte da parecchio
tempo che il nucleo delle cellule animali, contenente i cromosomi e quindi i geni, era
l’organello subcellulare più ricco di acidi nucleici e soprattutto di DNA. Le macro-
molecole di DNA sono polimeri costituiti da residui di acido fosforico, di uno zucchero
(desossiribosio) e da basi azotate, cioè adenina, guanina, citosina e timina.
All’inizio degli anni Cinquanta, sulla scia dei lavori di Pauling che avevano chiarito la
struttura delle proteine, macromolecole elicoidali costituite da combinazioni diverse di una
ventina di aminoacidi, venne affrontato il problema della macromolecola del DNA che si
supponeva dovesse essere una struttura elicoidale costituita da combinazioni diverse di
quattro nucleotidi diversi. Ogni nucleotide è composto da un residuo di acido fosforico,
una molecola di desossiribosio e una delle quattro basi azotate.
Le ricerche erano effettuate con metodi chimici e cristallografici e furono importanti, per
la soluzione del problema, i dati raccolti da Erwin Chargaff (1905-2002) che aveva
dimostrato, in campioni di DNA diversi, l’eguaglianza dei residui di timina e adenina e
quella dei residui di citosina e guanina. L’idea di disporre i componenti molecolari del
DNA in forma di doppia elica stabilizzata dalle interazioni tra basi azotate
«complementari» come rispettivamente adenina-timina, citosina-guanina, venne elaborata
a Cambridge da F. Crick (1916-2004) e James Dewey Watson (n. 1928), mentre i dati di
diffrazione dei raggi x necessari a verificare tale modello vennero forniti da Maurice
Wilkins (1916-2004).
Il modello della doppia elica consta di due catene polinucleotidiche che si avvolgono in
modo necessariamente elicoidale a causa dei requisiti strutturali delle basi azotate e dei
legami a idrogeno che esse formano in modo complementare. La natura complementare
delle sequenze di basi giustifica il processo di duplicazione, e cioè la formazione di due
doppie eliche a partire da una doppia elica in cui i due filamenti si separino. Il DNA dà
luogo a un tipo di replicazione detto semi-conservativo, e il fatto che ogni singolo
filamento di DNA dia origine a una nuova doppia elica venne riconosciuto nel 1958 da
Matthew Meselson e Franklin Stahl a Caltec. Oltre al DNA esiste un altro tipo di acido
nucleico detto ribonucleico o RNA contenuto principalmente nel citoplasma cellulare e
diverso dal DNA nel tipo di zucchero (che è, per l’RNA, il ribosio) e nelle basi azotate
(adenina, guanina, citosina e uracile).
La struttura dell’RNA sembra principalmente a filamento singolo e l’attività dell’RNA è
cruciale, assieme a quella del DNA, come base molecolare del meccanismo della
trasmissione genetica. Il materiale genetico della vita e quanto, in passato, si identificava
con il nome di gene è costituito dal DNA, mentre la branca della biologia che cerca di
ricavare, dal comportamento di molecole come il DNA e l’RNA, le leggi che regolano la
trasmissione dell’ereditarietà si definisce biologia molecolare.
Dal 1941 era noto che ogni gene controlla la formazione di un enzima, come dimostrato
da George Wells Beadle (1903-1989) ed Edward Lawrie Tatum (1909-1975), e poiché gli
enzimi sono proteine, e cioè filamenti costituiti da aminoacidi, e i geni sono DNA, cioè
doppi filamenti costituiti da basi azotate, fu presto chiaro che la sequenza di basi del DNA
potesse determinare in qualche modo la sequenza di aminoacidi delle proteine. Il problema
stava nel capire come un alfabeto composto da quattro lettere potesse rappresentare un
gruppo di circa venti lettere. Poiché combinando le quattro basi a due a due si ottengono
solo 16 combinazioni, fu chiaro che era necessario combinare le basi a tre a tre ottenendo
64 combinazioni che erano largamente sufficienti a rappresentare i ventuno aminoacidi
presenti nelle proteine. Ogni tripletta di basi azotate rappresenta così un aminoacido.
Nel 1955 Severo Ochoa (1905-1993) riuscì a sintetizzare l’RNA in vitro e nel 1956 Arthur
Kornberg (1918-2007) ottenne, sempre in vitro, il DNA. Nel 1961 François Jacob (n.
1920) e Jacques Monod (1910-1976) dimostrarono l’esistenza di un RNA messaggero,
cioè di una macromolecola di RNA che si sintetizza sullo stampo del DNA (processo di
trascrizione) e si aggancia ai ribosomi, particelle subcellulari del citoplasma dove avviene
la sintesi proteica. L’RNA messaggero è una sorta di nastro contenente, scritta in codice di
triplette, la sequenza proteica: tale nastro viene «letto» dal ribosoma che può così costruire
la proteina di sequenza specificata nella molecola dell’RNA messaggero. Negli anni
Sessanta Marshall W. Nirenberg (n. 1927) e Heinrich Matthaei (n. 1929), incubando con
estratti di Escherichia coli molecole di RNA sintetico costituite da sequenze di una sola
base (uracile), ottennero la formazione di un polipeptide costituito da una sequenza di un
unico aminoacido, la polifenilalanina. La tripletta uracile-uracile-uracile designava così
l’aminoacido fenilalanina, e questa scoperta permise di decifrare la chiave del codice
genetico come la stele di Rosetta permise di decifrare i geroglifici egiziani.
L’intero codice fu chiarito da Nirenberg, Crick, Khorana (n. 1922) e altri che riconobbero
il significato di tutte le 64 triplette costituenti il codice stesso. I tipi di RNA riconosciuti
nella cellula sono l’RNA ribosomiale, ad alto peso molecolare; l’RNA messaggero e un
RNA solubile, detto RNA di trasferimento o tRNA. Il processo con cui l’informazione
genetica viene trasmessa dal DNA all’RNA si chiama trascrizione, e un enzima, detto
RNA-polimerasi, catalizza la sintesi dell’RNA messaggero sullo stampo costituito dal
DNA. La sintesi della catena polipeptidica che concreta nella sequenza proteica
l’informazione proveniente dal DNA avviene nel cosiddetto processo di traduzione. La
sequenza dell’intero processo della biosintesi proteica si rappresenta quindi in modo
abbreviato come

La replicazione del DNA e la trascrizione dell’RNA messaggero si esplicano a causa delle


possibilità di accoppiamento stereospecifico di basi azotate complementari, l’adenina
«riconosce» la timina e la citosina «riconosce» la guanina. Il processo di traduzione
avviene a opera di vettori intermedi, che sono molecole di tRNA, capaci di legare sia
aminoacidi sia basi azotate. Vi sono così una ventina di tRNA capaci ognuno di legare un
aminoacido e provvisti di un sito che «riconosce» una tripletta dell’RNA messaggero. Il
tRNA si adagia sul ribosoma e qui «legge» il nastro del messaggero trasportando
l’aminoacido specificato nel messaggio. La sequenza degli aminoacidi viene così costruita
a livello del ribosoma che possiede il macchinario enzimatico necessario a iniziare e
terminare la lettura della sequenza scritta nell’RNA messaggero.
La scoperta del codice genetico ha permesso di interpretare in modo «meccanicistico»
fenomeni quali la riproduzione, l’ereditarietà, le variazioni e le mutazioni. Tale codice è
universale e cioè rappresenta un linguaggio comune a tutti gli organismi, dai virus ai
batteri, alle piante, agli animali.
Si tratta di una tappa importante nella realizzazione del programma inteso a portare il
fenomeno della vita all’interno della ragione.
La natura nell’arte moderna e contemporanea

Edvard Munch (1863-1944), La foresta. Collezione privata


Georges Lacombe (1868-1916), La foresta con il suolo rosso. Quimper, Musée des Beaux Arts

Caspar David Friedrich (1774-1840), Albero con corvi e tumulo preistorico sulla costa baltica.
Vienna, Kunsthistorisches Museum

Piet Mondrian (1872-1944), Sera (Albero rosso). L’Aja, Gemeentemuseum


Umberto Boccioni (1882-1916), Paesaggio. Collezione privata



La natura nell’arte moderna e contemporanea

Vincent Van Gogh (1853-1890), Gli ulivi. New York, Museum of Modern Art

Paul Klee (1879-1940), Architettura rosso-verde (gradazione giallo-viola). New Haven (CT), Yale
University Art Gallery

Jackson Pollock (1912-1956), Ritmo d’autunno. New York, Metropolitan Museum of Art

PARTE SESTA

LA FILOSOFIA DELLA SCIENZA TRA LE DUE GUERRE: DAL


NEOPOSITIVISMO A BACHELARD

Né Iddio né alcun diavolo potranno mai darci una metafisica.


Rudolf Carnap
La scuola storico-sociologica […] sottolinea che una teoria adeguata del metodo scientifico si deve
basare su di uno studio ravvicinato della pratica dell’indagine scientifica.
Carl Hempel
In generale, per concetto noi non intendiamo altro che un gruppo di operazioni, il concetto è sinonimo
del corrispondente gruppo di operazioni.
Percy Bridgman
Un po’ di metafisica ci allontana dalla natura, molta metafisica ce ne avvicina.
Gaston Bachelard
LINEAMENTI GENERALI

I
La riflessione sul metodo scientifico conosce, negli anni che corrono tra le due guerre, un
impulso decisivo.
Il principale centro per la filosofia della scienza fu, in quel periodo, l’università di Vienna,
dove un gruppo di scienziati-filosofi, riuniti attorno a Moritz Schlick, diedero vita al
Circolo di Vienna (Wiener Kreis). Il pensiero dei circolisti va sotto il nome di
neopositivismo o positivismo logico ed è caratterizzato da un deciso atteggiamento
antimetafisico e da tutta una serie di approfondite analisi di grande rilievo sul linguaggio,
la struttura e i metodi delle scienze naturali e sui fondamenti della matematica.
Il nucleo di fondo della filosofia viennese è il principio di verificazione, stando al quale
hanno senso soltanto le proposizioni che si possono empiricamente verificare attraverso il
ricorso ai fatti d’esperienza. È in base a questo principio che i neopositivisti decretarono
l’insensatezza di ogni asserto metafisico e teologico, sostenendo inoltre la riduzione delle
norme etiche a un insieme di emozioni.
L’avvento al potere da parte di Hitler portò con sé anche la fine del Wiener Kreis. Alcuni
circolisti (come Carnap, Feigl ecc.) emigrarono negli Stati Uniti, e qui il loro pensiero
entrò in simbiosi con le correnti empirico-pragmatistiche della filosofia americana. Tale
contatto allargò, nella direzione semantico-pragmatica, le prospettive del neopositivismo
che, con Carnap, fu avviato verso una maggiore liberalizzazione.
Mentre questo accadeva in America, Wittgenstein imprimeva alla filosofia inglese una
profonda svolta, respingendo le pretese metafisiche e assolutistiche del principio di
verificazione e indirizzando la filosofia verso l’analisi dei diversi giochi-di-lingua che
intessono l’umano linguaggio, che è ben più ricco, più articolato e più sensato nelle sue
manifestazioni non scientifiche di quanto non avessero mai immaginato i neopositivisti. E,
nel frattempo, Karl Popper reimpostava su altra base i problemi dei neopositivisti,
offrendo per tali problemi soluzioni diverse e maggiormente consistenti, senza affatto
negare la sensatezza dei linguaggi non scientifici, come è il caso delle proposizioni
metafisiche.
E se non distante da alcuni nuclei centrali del neopositivismo è, sempre negli anni tra le
due guerre, l’operazionismo del fisico americano Percy Williams Bridgman, il quale
sostenne la riduzione del significato dei concetti scientifici a un insieme di operazioni, una
filosofia non positivista della scienza veniva elaborando, in quel periodo, il francese
Gaston Bachelard, il cui influsso si è visto a distanza di anni e le cui idee, quali quella di
«rottura epistemologica» o di «ostacolo epistemologico», e soprattutto la sua
considerazione della storia della scienza come strumento primario nell’analisi della
razionalità, si sono rivelate sempre più importanti.
IL NEOPOSITIVISMO VIENNESE

II
Le origini e la formazione del Circolo di Vienna

Il neopositivismo è la filosofia del Circolo di Vienna. Il Circolo di Vienna prese l’avvio


allorché il fisico e filosofo Moritz Schlick (1882-1936) venne chiamato da Kiel
all’università di Vienna per ricoprirvi la cattedra di filosofia delle scienze induttive,
cattedra che era già stata di Ernst Mach, al quale erano poi succeduti Ludwig Boltzmann e
Adolf Stöhr (un pensatore di tendenza antimetafisica). Vienna costituiva un terreno
particolarmente adatto per lo sviluppo delle idee neopositiviste, a motivo del fatto che qui,
durante la seconda metà del XIX secolo, il liberalismo (con il suo patrimonio di idee
originato dall’illuminismo, dall’empirismo e dall’utilitarismo) rappresentò l’orientamento
politico preminente. Per di più, l’università di Vienna, diversamente dalla maggior parte
delle università tedesche, si era mantenuta – data l’influenza della Chiesa cattolica –
sostanzialmente immune dall’idealismo; e fu così la mentalità scolastica, come ricorda
uno dei membri più attivi del Circolo, Otto Neurath, a preparare la base per l’approccio
logico alle questioni filosofiche.
Schlick, dunque, nel 1922 viene chiamato a Vienna. Ma – narra Herbert Feigl – ancor
prima della guerra ’14-’18, «un gruppo di giovani dottori in filosofia, i quali avevano
soprattutto studiato fisica, matematica o scienze sociali – e tra questi spiccavano Philipp
Frank, Hans Hahn, Richard von Mises e Otto Neurath – si incontravano, il giovedì sera, in
un caffè della vecchia Vienna, per discutere soprattutto questioni di filosofia della scienza.
In quei giorni era principalmente il positivismo di Ernst Mach a ispirare questo piccolo
gruppo di studiosi».
Queste riunioni, precedenti il periodo della prima guerra mondiale, più tardi, all’interno
del Circolo di Vienna, verranno ricordate – con simpatia e rispetto – come l’epoca
«preistorica» del neopositivismo, la cui storia vera e propria inizia nel 1924 quando
Herbert Feigl e Friedrich Waismann andarono a parlare a Schlick con l’idea di formare un
gruppo di discussione.
Schlick acconsentì e, come risultato, si ebbero i colloqui del venerdì sera. Tale fu l’inizio
del Circolo di Vienna, che contò tra i suoi primi membri il matematico Hans Hahn, il
sociologo ed economista Otto Neurath e sua moglie Olga (sorella di Hahn, e lei stessa
matematica e logica), Felix Kaufmann (allora docente di filosofia del diritto), Victor Kraft
(filosofo versato in storia e interessato alla metodologia scientifica) e il matematico Kurt
Reidemeister, il quale nel ’24 (o forse nel ’25) propose di leggere e di discutere il
Tractatus logicophilosophicus di Wittgenstein.
Nel 1926 anche Rudolf Carnap fu chiamato all’università di Vienna. Hahn e Schlick lo
preferirono a Hans Reichenbach che, da parte sua, a Berlino, aveva formato la Società per
la filosofia scientifica, tra i cui membri di rilievo occorre ricordare Richard von Mises (di
origine viennese), Kurt Grelling, Walter Dubislav, Alexander Herzberg e, più tardi, i
discepoli di Reichenbach: Carl Gustav Hempel e Olaf Helmer.
Gli scopi e le attività della Società berlinese erano analoghi a quelli del Circolo viennese.
E stretti legami tra i due gruppi vennero intessuti fin dagli inizi, anche sulla base dei
rapporti personali esistenti tra Carnap e Reichenbach e tra von Mises e Philipp Frank,
all’epoca professore di fisica a Praga.
Frank, che non fu un membro effettivo del Circolo, ma che ne fu frequente visitatore
(essendo tra l’altro amico di Hahn e di Schlick), divenne, insieme a quest’ultimo, direttore
della collana «Schriften zur wissenschaftlichen Weltauffassung» (Scritti per una
concezione scientifica del mondo), in cui, tra gli altri, apparvero testi importanti quali: La
legge di causalità e i suoi limiti di Frank (1932), Compendio di logica di Carnap (1929),
Sintassi logica del linguaggio, sempre di Carnap (1934), Logica della scoperta scientifica
di Karl Popper (1935).

Il manifesto programmatico del Wiener Kreis

Nel 1929 veniva intanto pubblicato, a firma di Neurath, Hahn e Carnap, il «manifesto» del
Circolo viennese: La concezione scientifica del mondo. Così, uno dei protagonisti della
filosofia neopositivistica, Frank, ne rievoca la genesi, insieme alle iniziative del Circolo:
Intenti e prime Verso il 1929, avemmo sentore che dalla
iniziative dei collaborazione in atto a Vienna, stesse
neopositivisti emergendo una filosofia nuova. Tutti i genitori
amano mostrare le fotografie dei propri bambini;
anche noi, perciò, ricercavamo mezzi di
comunicazione per presentare al mondo il parto del nostro cervello, scoprirne le
reazioni e riceverne nuovi stimoli. Decidemmo, quindi, anzitutto, di pubblicare una
monografia sul nostro movimento; poi, di procedere all’organizzazione di un
dibattito; infine, di fondare una rivista filosofica per diffondere i lavori del gruppo.
Mentre preparavamo la monografia, ci accorgemmo che il nostro movimento e la
nostra filosofia non avevano nomi: parecchi di noi osteggiavano i termini «filosofia»
e «positivismo»; altri non gradivano comunque gli «ismi» nostrani o stranieri.
Finalmente, scegliemmo la denominazione «Wissenschaftliche Weltauffassung» (cioè
«concezione scientifica del mondo») […]. Carnap, Hahn, Neurath, collaborando
strettamente fra loro, curarono la stesura del testo monografico.
Queste tre iniziative ebbero presto attuazione. Nel settembre del 1929 si tenne a Praga un
convegno, promosso dai gruppi viennese e berlinese, sulla «Gnoseologia delle scienze
esatte». (A questo fecero seguito, sempre organizzati dagli epistemologi viennesi e
berlinesi, altri congressi: a Königsberg nel ’30, a Praga nel ’34, a Parigi nel ’35, a
Copenaghen nel ’36, a Parigi nel ’37, a Cambridge nel ’38, all’università di Harvard, negli
Stati Uniti, nel ’39.) L’anno dopo, nel 1930, col titolo «Erkenntnis» (Conoscenza)
cominciò ad apparire la prestigiosa rivista filosofica del movimento, diretta da Carnap e da
Reichenbach.
Le linee essenziali del programma neopositivistico, formulate nello scritto programmatico
sopra richiamato, erano le seguenti:
1 la formazione di una Einheitswissenschaft, cioè di una scienza unificata, comprendente
tutte le conoscenze fornite dalla fisica, dalle scienze naturali, dalla psicologia ecc.;
2 il mezzo per tale fine doveva consistere nell’uso del metodo logico di analisi elaborato
da Peano, Frege, Whitehead e Russell;
3 i risultati dell’applicazione di tale metodo al materiale delle scienze empiriche venivano
prospettati: a) nell’eliminazione della metafisica; b) nei contributi alla chiarificazione dei
concetti e delle teorie della scienza empirica e alla chiarificazione dei fondamenti della
matematica.
Sempre nello scritto programmatico, i predecessori del Circolo venivano classificati, per
argomento, in questi gruppi: a) positivismo ed empirismo: Hume, gli illuministi, Comte,
Mill, Avenarius, Mach;
b) basi e metodi delle scienze empiriche: Helmholtz, Riemann, Mach, Poincaré, Enriques,
Duhem, Boltzmann, Einstein;
c) logistica: Leibniz, Peano, Frege, Schröder, Russell, Whitehead, Wittgenstein;
d) assiomatica: Pasch, Peano, Vailati, Pieri, Hilbert;
e) eudemonismo e sociologia positivista: Epicuro, Hume, Bentham, Mill, Comte,
Feuerbach, Marx, Spencer, Müller-Lyer, Popper-Linkeus, Carl Menger (l’economista).
Questa lunga serie di nomi è estremamente rilevante, poiché essa ci indica a chiare lettere
la tradizione o, meglio, le tradizioni in cui si situa il neopositivismo.

Le idee fondamentali del neopositivismo

Per quanto concerne le tesi di fondo della filosofia dei neopositivisti, c’è da dire che
costoro, pur nelle discordanze, a volte anche profonde (come nel caso della polemica sui
protocolli, o asserzioni di osservazione), hanno affermato che:
1 il principio di verificazione costituisce il criterio di demarcazione tra proposizioni
sensate e proposizioni insensate, per cui tale principio si configura come un criterio di
significanza delimitante la sfera del linguaggio sensato dal linguaggio senza senso che
porta all’espressione il mondo delle nostre emozioni e delle nostre paure;
2 in base a tale principio, hanno senso unicamente le proposizioni passibili di verifica
empirica o fattuale, vale a dire le asserzioni delle scienze empiriche;
3 la matematica e la logica costituiscono soltanto complessi di tautologie,
convenzionalmente stipulate e incapaci di dire alcunché sul mondo;
4 la metafisica, l’etica e la religione, non essendo costituite da concetti e proposizioni
fattualmente verificabili, sono un insieme di questioni apparenti (Scheinfragen) che si
basano su pseudo-concetti (Scheinbegriffe);
5 il lavoro che rimane da fare per il filosofo serio è l’analisi della semantica (rapporto tra
linguaggio e realtà cui il linguaggio si riferisce) e della sintattica (relazioni dei segni di un
linguaggio tra di loro) dell’unico discorso significante, cioè del discorso scientifico;
6 per questo, la filosofia non è dottrina, ma attività: attività chiarificatrice del linguaggio.
Data questa concezione del lavoro filosofico e data anche la competenza dei neopositivisti
nelle diverse scienze, è facile immaginare quali notevoli contributi i Viennesi abbiano
apportato all’analisi delle scienze empiriche (causalità, induzione, status delle leggi
scientifiche, rapporto tra termini teorici e termini osservativi, probabilità ecc.) e dei
fondamenti della logica e della matematica (basti qui ricordare il lavoro di Kurt Gödel,
lavoro che ha determinato una svolta decisiva negli studi di logica-matematica).
A Vienna, con l’opera dei circolisti, prese insomma decisiva consistenza la filosofia della
scienza, intesa alla maniera moderna, come disciplina autonoma tendente
all’esplicitazione consapevole e sistematica del metodo e delle condizioni di validità delle
asserzioni fatte proprie dagli scienziati.

L’antimetafisica del Wiener Kreis

L’atteggiamento antimetafisico è una costante della filosofia neopositivista. Nel Tractatus


logico-philosophicus, Wittgenstein sostiene che «la maggior parte delle proposizioni e
delle questioni che sono state scritte in materia di filosofia non sono false, ma prive di
senso».
Sulle orme di Wittgenstein, Schlick paragonerà i metafisici ad attori che seguitano a
recitare la loro insulsa parte anche dopo che la platea si è svuotata. E nel saggio
Positivismo e realismo (1932) scriverà che «asserzioni quali “realtà assoluta” o “essere
trascendente” o altre del medesimo genere non significano null’altro che alcuni
determinati stati d’animo».
Analogo a quello di Schlick è l’attacco che alla metafisica, sempre in base al principio di
verificazione, sferra Rudolf Carnap ne Il superamento della metafisica attraverso l’analisi
logica del linguaggio (1932):
Né Iddio né alcun diavolo potranno mai darci una metafisica.
Le proposizioni della metafisica «servono solo a esprimere sentimenti vitali». Forse un
metafisico, afferma Carnap, potrebbe ottimamente esprimersi nella musica di Mozart:
I metafisici sono musicisti senza talento musicale.
In breve, per Carnap la metafisica sorge allorché si accettano come significanti termini che
non hanno riferimento nell’esperienza e con tali termini (come: «assoluto» «cosa in sé»,
«incondizionato» ecc.) si costruiscono frasi che pretendono, senza poterlo, parlarci della
realtà.
D’altro canto, per Neurath costituiva un compito improrogabile quello «di mettere in atto
un linguaggio il più possibile libero dalla metafisica». Fautore di una sociologia empirica,
Neurath era contrario all’idea di Wittgenstein per cui un fatto avrebbe dovuto riflettersi
nella struttura di una proposizione, e osteggiò anche le conclusioni mistiche del Tractatus.
Fu costantemente vigile nei riguardi delle infiltrazioni metafisiche all’interno delle
discussioni del Circolo.
La sua seconda moglie Marie Neurath e Robert S. Cohen ricordano, a tal riguardo, il
seguente aneddoto:
Neurath contro la Neurath interrompeva di frequente esclamando
metafisica del «Metafisica!», durante la discussione e la lettura
Tractatus del Tractatus di Wittgenstein nelle riunioni del
Circolo, irritando M. Schlick che alla fine gli
disse che interrompeva i lavori troppo spesso.
Hans Hahn, come conciliatore, propose a Neurath di dire solo «M.». Dopo un lungo
borbottio, così ha raccontato piu tardi Hempel, Neurath fece un’altra proposta a
Schlick: «Penso che risparmieremo tempo e fatica se dico ’Non-M’ ogni volta che il
gruppo non sta parlando di metafisica».
Per Neurath la conoscenza scientifica non può essere altro che il sistema delle
proposizioni all’epoca accettate dagli scienziati, e il rifiuto della metafisica costituiva per
lui una battaglia esattamente come se si trattasse di andare contro un nemico politico.
Questa, dunque, l’antimetafisica di Neurath. E Hans Reichenbach, nella Introduzione al
primo volume della rivista del Circolo «Erkenntnis» (Conoscenza) dirà che è un fatto
decisamente progressivo l’abbandono di qualsiasi metafisica o poesia in concetti
(Begriffsdichtung), abbandono successivo a quello che lo stesso Reichenbach ha chiamato
la sdivinizzazione (Entgötterung) della natura.

Schlick e il principio di verificazione

Si è detto in precedenza che i primi membri del Circolo di Vienna lessero e commentarono
il Tractatus logico-philosophicus di Ludwig Wittgenstein. Questi aveva scritto che
«comprendere una proposizione vuol dire sapere come stiano le cose nel caso che sia
vera» (prop. 4.024). Ciò per Schlick (si veda il suo saggio Significato e verificazione)
voleva dire che
il significato di una proposizione è il metodo della sua verifica.
In Positivismo e realismo, Schlick insiste sull’idea che:
Compito specifico della filosofia è quello di cercare e chiarificare il senso delle
asserzioni e delle questioni.
Il senso di una proposizione consiste unicamente nel fatto che la proposizione
esprime un determinato stato di cose,
stato di cose che va quindi mostrato se si vuole indicare il senso di una proposizione:
Il senso di una Qualora vogliamo trovare il senso di una
proposizione sta proposizione, dobbiamo trasformarla attraverso
nell’indicare un l’introduzione di definizioni successive, finché, da
determinato stato di ultimo, ci troveremo di fronte a parole che non
cose potranno venir ulteriormente definite con parole,
cioè il cui significato potrà soltanto venir
direttamente mostrato. Il criterio per la verità

Moritz Schlick

o la falsità di una proposizione consiste dunque nel fatto che, sotto determinate
condizioni, alcuni eventi si danno oppure no. Se si è stabilito ciò, si è stabilito tutto
quello di cui nella proposizione si parla, e con ciò si conosce il suo senso.
È ovvio che la verificabilità in questione non è una verificabilità di fatto ma di principio,
giacché
il senso di una proposizione non dipende naturalmente dal fatto che le circostanze in
cui noi direttamente ci troviamo in un dato tempo, permettono o impediscono la sua
fattuale verificazione. La proposizione «sull’altra faccia della luna ci sono montagne
alte 3000 metri» è senza dubbio assolutamente sensata, sebbene ci manchino i mezzi
tecnici per verificarla.
Questa era la linea anche di Carnap, del Carnap della Costruzione logica del mondo
(1928), in cui la riduzione di tutte le proposizioni delle scienze, attuata a opera del
«sistema di costituzione» (Konstitutionssystem), faceva sì che l’intero edificio del
linguaggio sensato, per essere significante, dovesse poggiare sugli Elementarerlebnisse,
vale a dire sui dati di esperienza immediata. Scrive Carnap in Problemi apparenti in
filosofia (1928):
Proposizioni Il senso di una proposizione consiste nel suo
sensate e esprimere uno stato di fatto (pensabile e non
proposizioni prive di necessariamente esistente). Se una (presunta)
senso proposizione non esprime alcun (pensabile) stato
di fatto, non ha senso, e perciò è solo
apparentemente un’asserzione. Se una
proposizione esprime uno stato di fatto, ha sempre significato; ed è vera quando
questo stato di fatto esiste, falsa quando non esiste.
Carnap è estremamente chiaro: al di fuori delle espressioni di logica e matematica che
sono soltanto delle trasformazioni tautologiche, non si dà fonte di conoscenza oltre
l’esperienza: non c’è nessun giudizio sintetico apriori, nessuna intuizione, nessuna visione
eidetica.
Le parole hanno significato solo quando indicano qualche cosa di fattuale, gli asserti
hanno un senso solo se esprimono un possibile stato di cose; altrimenti nel primo caso si
ha uno Scheinbegriff (pseudoconcetto), nel secondo uno Scheinsatz (pseudoproposizione).
E solo se saremo in grado di decidere in base ai dati dell’esperienza, sarà possibile – scrive
Carnap nella Sintassi logica del linguaggio – tirarci fuori da «quell’inestricabile groviglio
di problemi che è noto sotto il nome di filosofia».

Neurath e il fisicalismo

Il principio di verificazione venne ben presto fatto oggetto di severe critiche. Esso apparve
subito a molti come un principio metafisico (o, per essere più esatti, criptometafisico) che
in nome della scienza condannava aprioristicamente il senso di qualsiasi altro discorso.
Ma, a parte ciò, col principio di verificazione la scienza non pareva trovasse una
sistemazione capace di salvarla, dato che la scienza veniva fondata su esperienze del tutto
soggettive e inficiate di solipsismo come gli Erlebnisse.
Le proposizioni elementari o protocolli erano, come notò Kraft, qualcosa di psicologico
anziché di logico. E poi, formulato il principio di verificazione, ci si trovava
immediatamente davanti a questo dilemma: o il criterio è un’asserzione fattuale, e allora
non è più una norma con cui giudicare il linguaggio come significante o insignificante;
ovvero si afferma come norma, e allora si cade in un’impasse, in quanto la norma, per il
suddetto principio, non ha senso.
Nel tentativo di superare questa situazione difficoltosa della prima fase del Circolo (la
cosiddetta fase «semantica»), Neurath, seguito da Carnap, ne capovolge l’orientamento
semantico nella direzione sintattica, o, come si dice, fisicalista.
Per scongiurare ogni perplessità, Neurath, in Scienza unificata e psicologia (1933),
afferma la necessità di porsi in un linguaggio dove tutte le proposizioni debbano già
dall’inizio risultare intersoggettive.
E, per questo, non bisogna partire dalla concezione irrimediabilmente viziata di
metafisica, secondo cui si assume il linguaggio nella sua funzione di rappresentazione
proiettiva dei fatti. Il linguaggio deve essere preso come un fatto fisico, come un insieme
di suoni e di segni.
La scienza è la totalità delle asserzioni empiriche pronunciate o scritte, ed esse – tracce
d’inchiostro o sistemi di onde aeree – sono allo stesso tempo ciò di cui la scienza parla e
ciò con cui essa si esprime. Scrive Neurath in Fisicalismo (1931):
La teoria del linguaggio può essere del tutto assimilata alla teoria dei processi fisici,
siamo sempre nello stesso ambito.
In breve, noi non possiamo uscire dal linguaggio ed essere al medesimo tempo accusatori,
accusati e giudici; noi aumentiamo la scienza aumentando la quantità delle sue
proposizioni, confrontando le nuove proposizioni con quelle già in uso e creando un
sistema privo di contraddizioni adatto a fare con successo delle predizioni. In Sociologia
nel fisicalismo (1931-32), Neurath precisa:
Noi possiamo soltanto affermare che oggi operiamo con il sistema spazio-temporale
che corrisponde alla fisica.
L’assunzione del linguaggio come fatto fisico e l’eliminazione della sua funzione di
rappresentazione proiettiva dei fatti portano a un mutamento radicale nel criterio di
accettabilità.
La teoria della verità come corrispondenza tra una proposizione e un fatto è sostituita da
quella della verità come coerenza tra proposizioni:
Due diverse Le proposizioni vanno confrontate con
concezioni della proposizioni e non con «esperienze», né con un
verità «mondo» né con «qualcos’altro». Tutte queste
duplicazioni senza senso appartengono a una più
o meno raffinata metafisica e devono perciò
essere eliminate. Ogni nuova proposizione viene confrontata con la totalità delle
proposizioni presenti, già accordate le une con le altre. Pertanto si dirà che una
proposizione è corretta solo se può essere inserita entro tale sistema. Ciò che non
può essere inserito in esso viene rifiutato come scorretto. Invece di rifiutare le nuove
proposizioni, si può alterare l’intero sistema – cosa a cui ci si decide molto
difficilmente – fino a che le nostre proposizioni possano venire inserite in esso […].
La definizione di «corretto» e «non corretto» data qui, è molto lontana da quelle
abituali nel Circolo di Vienna, le quali ricorrono al «significato» e alla
«verificazione». Nella presente teoria noi restiamo sempre nell’ambito del pensiero
parlato.
Dunque, una proposizione è «non-corretta» se essa non si accorda con le altre proposizioni
riconosciute e accettate nel corpus delle scienze, altrimenti è «corretta». Questo è l’unico
criterio con cui progettare una enciclopedia della scienza unificata, utilizzando l’unico
linguaggio sensato che è quello delle scienze fisiche.
Neurath parla (nello scritto Sociologia empirica del 1931) di enciclopedia e non di
sistema, per l’apertura e l’incompletezza che contraddistinguono la prima, dove è possibile
far confluire i risultati anonimi delle diverse scienze positive o, per dirla con Nietzsche,
«le verità senza pretese», le quali, al contrario degli affascinanti errori delle età
metafisiche, evitano di diventare un mausoleo e rimangono una forza intellettuale viva e
utile all’umanità.

Carnap e il linguaggio fisicalistico come linguaggio universale della scienza

Le idee radicali sul fisicalismo, proposte da Neurath, portarono nel Circolo potentissimi
germi di discussione. Carnap fu colui che più d’ogni altro subì gli influssi neurathiani.
Dato però che le formulazioni di Neurath erano, secondo Carnap, «tutt’altro che
ineccepibili», fu proprio Carnap a tentarne un ripensamento per una più adatta fondazione
del fisicalismo. Due, come si è detto, erano i nuclei del fisicalismo in Neurath, e cioè la
concezione del linguaggio come fatto fisico (concezione che accantonava la questione del
linguaggio quale «proiezione» del mondo) e l’esigenza della scienza unificata su base
fisicalista.

Rudolf Carnap

Carnap accetta senz’altro la tesi dell’universalità della lingua fisicalista, senza però
insistere sulla riduzione del linguaggio a fatto fisico, e quindi senza rigettare la funzione
simbolica dei segni. Infatti, i saggi Il linguaggio fisicalistico come linguaggio universale
della scienza (1931) e La psicologia nel linguaggio fisicalistico (1932), scritti a difesa del
fisicalismo, concernono quasi esclusivamente il tema dell’universalità della lingua
fisicalista. Scrive Carnap in Filosofia e sintassi logica (1935):
Noi, nelle discussioni al Circolo di Vienna, siamo giunti alla concezione che il
linguaggio fisico è il linguaggio-base di tutta la scienza, un linguaggio universale
che abbraccia i contenuti di ogni altro linguaggio scientifico.
E, secondo lui, il linguaggio fisico deve essere assunto come linguaggio della scienza
unificata (in cui rientrano pure la psicologia e la sociologia, ossia le cosiddette «scienze
dello spirito»), perché ha le tre caratteristiche dell’intersensualità, dell’intersoggettività e
dell’universalità.
Certo, possiamo facilmente ammettere con Carnap che il fisicalismo è una tesi logica, che
non parla di cose ma di parole. Ma queste parole di che cosa parlano?, come possiamo
determinare il rapporto linguaggio-realtà? Su questo rapporto è divampata la polemica
Schlick-Neurath. A Carnap, in fondo, la questione non interessava molto, intento, in
questo periodo, alla Sintassi logica del linguaggio e quindi alla determinazione delle
strutture formali, della sintassi logica, del linguaggio.
Ma se non interessava Carnap, il problema era scottante per Schlick, che non poteva
rassegnarsi alla proposta dei «convenzionalisti» di considerare valido ogni linguaggio non
contraddittorio. Un linguaggio non contraddittorio, infatti, non è sufficiente a rendere
ragione della scienza: anche una favola ben congegnata può essere non contraddittoria, ma
senza che per questo sia ritenuta scientifica.
Comunque, Schlick, pur non trovando formulazioni adeguate per il suo criterio («il nostro
principio è una trivialità su cui non si può nemmeno discutere»), ha avuto nel Circolo la
funzione dialettica del continuo richiamo ai fatti, richiamo che, come dice Russell, fa vera
ogni asserzione. Ciò contro i convenzionalisti (Neurath e, in parte, anche Carnap ecc.) i
quali, preoccupati da un supposto e temuto infiltrarsi della metafisica nel pensiero di
Schlick, finivano quasi per abbandonare l’empirismo.
I convenzionalisti parvero dimenticare che lo scopo delle parole è di occuparsi di cose
diverse dalle parole. Per loro parrebbe che la scienza sia più o meno come una favola ben
strutturata: si tratta sempre di giochi di segni. Schlick insiste sul fatto che la scienza è sì un
gioco di segni, ma giocato sulla scacchiera della natura.
I convenzionalisti, dice sempre Russell, sembrano dire: «In principio era il verbo»; e
Schlick ha voluto affermare che «in principio era ciò che il verbo significa».

Il trapianto del neopositivismo in America

Dal 1930 circa sino al 1938, anno in cui ha luogo l’annessione nazista dell’Austria, si
assiste alla fase del decollo internazionale del Circolo di Vienna. Questa fase è
contraddistinta da autorevoli riconoscimenti e da rilevanti acquisizioni dottrinali, nonché
dalla scomparsa di Schlick – assassinato da un suo ex studente, nel ’36; e due anni prima
era morto Hans Hahn – e dalla progressiva diaspora del gruppo originario, con
conseguente «trapianto» del movimento di pensiero, ormai noto come «neopositivismo» o
«positivismo logico» o «empirismo logico», soprattutto oltre Atlantico, negli Stati Uniti.
Così Carnap, nella sua Autobiografia intellettuale, rievoca il tempestivo credito accordato
in America al neopositivismo da alcuni giovani studiosi sia filosofi sia scienziati:
Nel 1934 conobbi due filosofi americani che, dopo aver visitato i miei amici a Vienna, vennero a
trovarmi a Praga: Ch. W. Morris, dell’Università di Chicago, e W. V. O. Quine, dell’Università di Harvard.
Già attratti dal nostro modo di filosofare, contribuirono
La favorevole poi a renderlo noto negli Stati Uniti, adoprandosi affinché io
accoglienza negli stesso potessi mettervi piede. Venni allora invitato
dall’Università di Harvard a partecipare alle celebrazioni del
USA della filosofia suo terzo centenario, nel settembre 1936, mentre
del Wiener Kreis l’Università di Chicago mi offrì un posto d’insegnamento a
partire dal medesimo anno, posto che in seguito occupai
ininterrottamente fino al 1952 […]. Così, fui lieto non solo di
sottrarmi alla soffocante atmosfera politicoculturale europea
e all’incubo della guerra, ma anche di constatare che in America, specialmente fra i pensatori più
giovani, vi era un vivo interesse, accentuato di anno in anno, per lo sviluppo della filosofia sulla base
del metodo scientifico e della logica moderna.

Il bilancio relativo all’accoglimento del neopositivismo negli Stati Uniti che Herbert Feigl
abbozzò poco dopo il ’40 è senz’altro suggestivo, poiché include i nomi di non pochi
protagonisti della cultura americana, sia «filosofi, logici e metodologi» quali Abram
Cornelius Benjamin, Nelson Goodman, Sidney Hook, Henry Margenau, Charles W.
Morris, Ernest Nagel; sia «scienziati», quali L. Bloomfield, Percy W. Bridgman, Haskell
B. Curry, Stephen C. Kleene, Carroll C. Pratt, Burrhus F. Skinner, Stanley S. Stevens.
L’ingresso del neopositivismo in America per un verso consentì ai filosofi statunitensi di
affinare analiticamente il proprio orientamento scientifico, concentrandosi su problemi
metodologici ben circoscritti, per l’altro indusse i pensatori d’origine europea ad
arricchire, con considerazioni di carattere semantico-pragmatico, la loro prospettiva
filosofica, smorzandone l’iniziale enfasi formalistica in materia di linguaggio.
Un accenno, per concludere, a quell’impresa che, dal punto di vista della collaborazione
organica fra i suddetti studiosi, rappresenta il documento più significativo: l’International
Encyclopedia of Unified Science (Enciclopedia internazionale della scienza unificata).
L’idea di una silloge enciclopedica delle scienze fu di Otto Neurath, il quale la coltivò con
tenacia a partire dal ’20. L’incontro di alcuni esponenti del Circolo di Vienna con pensatori
americani, come Morris, Nagel, Lenzen, Bloomfield, permise a Neurath di preparare un
valido programma di lavoro e, a partire dal ’38, di avviarlo a realizzazione sotto la
direzione sua, di Carnap e di Morris. Il sopraggiungere della guerra, l’attenuarsi,
soprattutto dopo la morte dello stesso Neurath nel 1945, dello slancio di vari collaboratori,
pregiudicarono il pieno sviluppo dell’iniziativa.

Liberalizzazione delle tesi neopositivistiche

Le difficoltà in cui si erano imbattute le tesi neopositivistiche, e soprattutto il principio di


verificazione, non vennero affatto protette. Anzi, esse furono formulate con tutta chiarezza
e lo sforzo per superarle condusse, da una parte, alla nuova filosofia di Wittgenstein (alla
filosofia del cosiddetto «secondo» Wittgenstein), dall’altra all’epistemologia
falsificazionista di Karl Popper, e dall’altra ancora alla liberalizzazione del neopositivismo
operata da Rudolf Carnap.
Nel gennaio del 1929, Wittgenstein torna a Cambridge, riprende il suo lavoro in filosofia e
stende una gran quantità di osservazioni. Le note scritte dal gennaio 1929 al settembre
1930, egli le raccolse in un manoscritto intitolato Osservazioni filosofiche, le quali
costituiscono il documento da cui è possibile controllare lo staccarsi dalle sue concezioni
filosofiche del Tractatus, da cui il Circolo di Vienna aveva tratto ispirazione, e l’aprirsi
verso prospettive più liberali. Se per il «primo» Wittgenstein «il senso di una proposizione
è il metodo della sua verifica», ora nelle Osservazioni filosofiche, egli dice:
Cosa una parola significhi, si apprende mentre si vede come essa viene usata. E se
uno ha conosciuto il suo uso, allora si è appreso anche che cosa significhi.
Se la filosofia del primo Wittgenstein aveva spronato i circolisti a costruire un linguaggio
perfetto, ora l’introduzione, da parte dello stesso Wittgenstein del principio d’uso
(secondo cui «il significato di una parola è il suo uso nella lingua») spinge i seguaci del
neopositivismo a riesaminare il loro atteggiamento intransigente e soprattutto il loro
programma di costruzione di un linguaggio privilegiato.
Al passaggio di Wittgenstein dalla fase rigida del Tractatus alla fase liberale delle
Osservazioni filosofiche bisogna aggiungere le critiche che Popper, a partire dalla Logica
della scoperta scientifica del ’34, muoveva al principio di verificazione. Questo gli
appariva autocontraddittorio, cripto-metafisico e incapace di render conto delle leggi
universali delle scienze empiriche. Nell’autobiografia La ricerca non ha fine, egli si
chiede, a proposito del dissolversi del Circolo: «Chi ne è responsabile?» e risponde:
«Credo di dover ammettere la mia responsabilità».
Chi più e prima degli altri circolisti avviò comunque la liberalizzazione dell’empirismo fu
Carnap, a partire dagli anni Trenta, mentre insegnava a Praga. Egli stesso
nell’Autobiografia ne ricostruisce le tappe:
Alcuni radicali La semplicità e la coerenza del sistema delle
cambiamenti delle conoscenze come la maggior parte di noi al
tesi Circolo di Vienna lo concepiva, gli forniva una
neopositivistiche certa attrattiva e forza di fronte alle critiche;
d’altra parte, queste caratteristiche causavano
una certa rigidità, cosicché fummo costretti a
operare alcuni radicali cambiamenti per rendere giustizia al carattere aperto e
all’inevitabile mancanza di certezza di ogni conoscenza fattuale.
Stando alla concezione originaria del Wiener Kreis, il sistema di conoscenza, pur
divenendo costantemente più comprensivo, era considerato un sistema chiuso nel senso
seguente: secondo i circolisti – almeno all’inizio del loro lavoro – vi era un minimo di
conoscenza indubitabile, la conoscenza dell’immediatamente dato; supponevano che ogni
altro tipo di conoscenza poggiasse saldamente su questa base e che si potesse perciò
stabilire con altrettanta certezza.
Questa era l’immagine che Carnap stesso aveva fornito nella Costruzione logica del
mondo, sotto l’influenza della dottrina machiana delle sensazioni come elementi di tutta la
conoscenza, dell’atomismo logico di Russell e infine della tesi di Wittgenstein secondo cui
tutte le proposizioni sono funzioni di verità delle proposizioni elementari. Questa
concezione, strettamente legata al principio wittgensteiniano della verificabilità, implicava
simultaneamente una (non molto sostenibile) immagine giustificazionistica della scienza.
Difatti, il principio di verificazione (almeno come era stato formulato nei primi tempi del
Circolo) è incapace di tener conto della scienza per due ragioni fondamentali: in primo
luogo gli asserti protocollari (o di base o di osservazione) non sono affatto
incontrovertibili, e poi – la questione è centrale – una serie quantunque numerosa di
osservazioni analoghe reiterate non riesce a fondare logicamente le leggi universali della
scienza. Per tutto ciò, Carnap, in Controllabilità e significato (1936), invece che di
verificabilità parlerà di controllabilità e di confermabilità:
Differenza tra controllabilità e Diremo che una proposizione è controllabile, se,
confermabilità di una
proposizione
di fatto, conosciamo un metodo per procedere
alla sua eventuale conferma; mentre diremo che è
confermabile, se sappiamo sotto quali condizioni
essa in linea di principio sarebbe confermata.
Carnap distingue, inoltre, tra confermabilità completa e confermabilità incompleta: la
prima si ha quando una proposizione è riducibile a una classe finita di proposizioni
contenenti predicati osservabili (per esempio: «tutte le mele in questo cesto sono rosse»);
mentre una proposizione è confermabile incompletamente se c’è una classe infinita di
proposizioni che contengono predicati osservabili e sono conseguenze della proposizione
data. (Così, per esempio, la proposizione universale: «tutti i metalli, se riscaldati, si
dilatano» è confermabile incompletamente.)
E la richiesta di confermabilità incompleta è, per Carnap, una formulazione sufficiente del
principio dell’empirismo: una formulazione capace di render conto della conoscenza
scientifica, in grado di distinguere questa dalle asserzioni metafisiche e priva dei difetti di
cui era carico il principio di verificazione.
CARL HEMPEL DALL’EMPIRISMO ANALITICO A
UN’EPISTEMOLOGIA STORICO-SOCIOLOGICA

III
La vita e le opere

Carl Gustav Hempel è nato nel 1905 a Oranienburg, vicino a Berlino. Frequenta il Realgymnasium,
«una scuola – ricorda Hempel nella sua autobiografia – in cui si studiava latino e come lingue straniere il
francese e l’inglese. Si dava una certa importanza alla matematica e alla fisica». In questa scuola riceve
un’ottima formazione: «gli insegnanti erano molto competenti e coscienziosi e molti avevano un
dottorato». Nel 1923 si iscrive all’università di Göttingen, dove frequenta i corsi di David Hilbert, di Edmund
Landau e le lezioni di logica simbolica tenute da Heinrich Behmann. Dopo due semestri a Göttingen,
Hempel si trasferisce a Heidelberg, per passare successivamente, nell’inverno 1924-1925, a Berlino al
fine di prepararsi alla carriera di professore di liceo.
A Berlino, il giovane Hempel conosce Einstein, frequenta le lezioni di Max Planck e di von Neumann,
ed entra in contatto con Hans Reichenbach. «Ricordo – egli scrive – che all’epoca ero un kantiano
convinto e la cosa venne fuori chiaramente conversando con lui. Allora Reichenbach rise e disse: “A
quanto pare, lei ha inghiottito Kant con amo, lenza e piombini; ma le passerà”.» Reichenbach era la figura
principale della Gesellschaft für empirische Philosophie (Società per la filosofia empirica), un gruppo
«senza un’organizzazione rigida», di cui facevano parte anche Walter Dubislav e Kurt Grelling (il quale
finirà i suoi giorni ucciso dai nazisti ad Auschwitz).
Hempel frequenta i corsi di Reichenbach e partecipa ai seminari della Società per la filosofia empirica,
la quale organizzava anche conferenze tenute da pensatori che non venivano solo da Berlino, ma anche
da altre città – da Vienna, per esempio, vennero invitati Carnap e Neurath. E proprio al fine di studiare con
Carnap, Hempel si trasferisce a Vienna: «Così andai a Vienna e feci un seminario con Carnap, un altro
seminario e un corso normale con Schlick e un seminario con Friedrich Waismann. Erano tutti bravissimi
ed enormemente stimolanti ed ebbero molta influenza sul mio pensiero».


Carl Gustav Hempel


Tornato a Berlino, Hempel si trova senza relatore della sua tesi di dottorato, giacché Reichenbach, nel
1933, aveva deciso di lasciare Berlino per la Turchia. Si mette alla ricerca di un relatore e lo trova in
Wolfgang Köhler, il gestaltista della famosa scuola berlinese della Gestalt, collega di Kurt Lewin e Max
Wertheimer. Come secondo relatore si offrì Nicolai Hartmann. Intanto avanzava la marea montante del
nazismo. Ricorda sempre Hempel:

Quando si ha Una volta, mentre stavo lavorando alla


dignità non manca Staatsbibliothek di Berlino, la biblioteca di
il coraggio stato della Prussia, dove avevo passato
innumerevoli ore, delle camicie brune
entrarono e gridarono: «Tutti gli ebrei escano
immediatamente». Doveva essere il ’33; anch’io mi alzai subito e uscii. Non sono
ebreo, ma ho molti amici ebrei.
Nel 1930, tramite Reichenbach, Hempel aveva conosciuto il dottor Paul Oppenheim. Costui, nel 1933,
aveva lasciato la Germania per Bruxelles; e chiese a Hempel se volesse trasferirsi in Belgio, come suo
ospite, «per mandare avanti sia il mio lavoro sia alcuni suoi studi». Il primo lavoro che Hempel e
Oppenheim hanno scritto insieme è Der Typusbegriff im Lichte der neueren Logik (1936).
Invitato in Inghilterra da Susan Stelbing, Hempel tiene una relazione al Bedford College – relazione
che venne pubblicata su «Analysis» nel 1935 con il titolo On the Logical Positivist’s Theory of Truth.
Questo scritto non piacque a Schlick, per la ragione che Hempel, sotto l’influenza di Neurath, faceva
dipendere l’accettabilità ultima degli enunciati scientifici dal consenso della comunità scientifica. Annota
Hempel nella sua autobiografia: «un’idea che adesso è tornata molto in circolazione con Kuhn e altri e che
allora era proposta in modo quanto mai esplicito da Neurath». Schlick replicò con il saggio Das
Fundament der Erkenntnis.
A Londra Hempel conosce George E. Moore e Alfred J. Ayer. Nel 1936, Hempel è a Copenaghen a
una Riunione per l’unità della scienza, e proprio durante la riunione arriva la notizia che un allievo ha
sparato a Schlick, uccidendolo. In quella riunione era presente anche Niels Bohr: «In seguito lo incontrai
anche a Princeton. Era taciturno e piuttosto difficile da capire, per cui non discussi mai con lui».
Dopo tre anni trascorsi a Bruxelles, nel 1937 riceve un invito dall’università di Chicago come research
associate di Carnap. Dai primi mesi del 1938 sino all’autunno del 1939 Hempel è di nuovo a Bruxelles per
ulteriori lavori con Oppenheim. Tornato negli Stati Uniti, viene assunto come docente al City College di
New York, dove resta appena un anno, per trasferirsi nell’autunno del 1940 al Queen’s College, dove
insegna sino al 1948 e dove entra in contatto con John Gobeen, Donald Davidson e Herbert Bohnert.
Partecipa, insieme a John McKinsey, Ernest Nagel e Philip Wiener alle attività del Circolo filosofico di New
York. Frequenta una specie di corso informale molto tecnico tenuto da Alfred Tarski.
Nel periodo del Queen’s College pubblica The Function of General Laws in History (1948) e lavora sul
concetto di conferma di un’ipotesi scientifica (Studies in the Logic of Confirmation, 1945). E per il lavoro
sul concetto qualitativo di conferma, «che spesso era molto frustrante», Hempel dichiara di avere avuto
l’incoraggiamento e le utili osservazioni del suo amico Nelson Goodman.
Dal 1948 al 1955 Hempel è docente a Yale, dove trova il logico Frederick Fitch, Filmer Stuart C.
Northrop e Henry Margenau «che spaziava sia sulla fisica che sulla filosofia» e «poi c’era Adolf
Grünbaum, che cominciò gli studi per il dottorato mentre ero a Yale e adesso è un collega qui a Pittsburgh
e un vecchio amico». Del 1952 sono i due saggi: Fundamentals of Concept Formation in Empirical
Science e Problems of Concept and Theory Formation in the Social Sciences.
Nel suo ultimo anno a Yale, Hempel fu professore ospite a Harvard (’53-’54), dove conobbe Willard
Quine, Israel Scheffler e Clarence Lewis, il quale gli fece «molta impressione».
Nel 1955 Hempel si trasferisce a Princeton: «Sono veramente contento di esserci stato. Trovai
un’atmosfera congeniale, accademicamente e personalmente, e molto stimolante». C’erano Gregory
Vlastos, Walter Kaufmann, Richard Rorty, e fisici del livello di Robert H. Dicke, John Wheeler ed Eugene
Wigner: «In quegli anni cominciai a interessarmi di nuove questioni relative alla metodologia e filosofia
della psicologia, della sociologia e della storiografia, e anche dei problemi della spiegazione razionale, la
spiegazione delle azioni umane mediante ragioni motivanti, e a chiedermi se la logica di queste
spiegazioni era simile a quella delle spiegazioni delle scienze fisiche. Io sostenni che nell’insieme lo era».
A Oxford nel 1959-1960, come Senior Fullbright Scholar, Hempel ha modo di frequentare soprattutto
Gilbert Ryle e Richard Hare, ma anche Peter Friedrick Strawson, William Kneale e James Opie Urmson. A
Princeton ha l’occasione di incontrare più volte Einstein, il quale era molto amico di Oppenheim.
Nel 1973 Hempel raggiunge l’età della pensione. Prosegue qui il suo insegnamento per altri due anni;
successivamente tiene lezioni anche a Berkeley e a Irvine. Trascorre un semestre all’Università Ebraica di
Gerusalemme. Nel 1975 è a Pittsburgh come professore ospite, accettando poi un incarico a tempo
indeterminato al dipartimento di filosofia.
Carl Gustav Hempel si è spento nel 2001.

Oltre agli scritti sopra menzionati, sono da ricordare: Aspects of Scientific Explanation and
Other Essays in the Philosophy of Science (1965); Philosophy of Natural Science (1966);
e la raccolta di scritti Oltre il positivismo logico. Saggi e ricordi (1989).
Spiegazione e previsione nelle scienze fisico-naturali

Del 1942 è, appunto, l’articolo The Function of General Laws in History – un saggio che,
insieme ad altri suoi scritti, era destinato a esercitare una rilevante influenza sulle analisi
che, in ambito epistemologico-analitico, sarebbero state sviluppate nella filosofia della
scienza del dopoguerra. La tesi di fondo che Hempel sostiene in The Function of General
Laws in History è che le leggi generali assolvono la medesima funzione nelle scienze
naturali e nella storiografia:
Come si spiega La funzione principale delle leggi generali nelle
scientificamente un scienze naturali è quella di connettere eventi in
fatto argomentazioni alle quali usualmente ci si
riferisce con i nomi di spiegazione e di
previsione. La spiegazione dell’accadimento di
un evento di un certo specifico tipo E in un certo luogo e tempo consiste, come
solitamente si dice, nell’indicare le cause o i fattori che determinano E. Ma
l’asserzione che un insieme di eventi – cioè di eventi dei tipi C1, C2, …, Cn – ha
causato l’evento da spiegare dipende dall’enunciato per cui, in accordo con certe
leggi generali, un insieme di eventi dei tipi menzionati è regolarmente accompagnato
da un evento di tipo E. Talché, la spiegazione scientifica dell’evento in questione
consiste: 1) di un insieme di enunciati asserenti l’occorrenza di determinati eventi
C1, …, Cn in certi tempi e in certi luoghi; 2) di un insieme di ipotesi universali, tali
che: (a) gli enunciati dei due gruppi siano ragionevolmente ben confermati da prove
empiriche; (b) e dai due gruppi di enunciati si possa logicamente dedurre la
proposizione asserente il verificarsi dell’evento E. In una spiegazione fisica, il
gruppo (1) di enunciati descrive le condizioni iniziali e vincolanti per l’accadimento
dell’evento finale; generalmente diciamo che il gruppo (1) stabilisce le condizioni
determinanti l’evento da spiegare; mentre il gruppo (2) contiene le leggi generali su
cui si basa la spiegazione: esse implicano l’asserzione che, dovunque e sempre si
verifichino eventi del tipo descritto nel primo gruppo, avrà luogo un evento del tipo
di quelli da spiegare.
Dunque, un fenomeno (E, il fatto da spiegare o explanandum) è spiegato o spiegabile
scientificamente quando è dedotto o deducibile da un insieme di asserzioni (explanans)
costituito da condizioni iniziali (C1, …, Cn) e da leggi generali rilevanti (L1, …, Lr). Per
cui vediamo che, simbolizzando, una spiegazione scientifica assume la forma di una
argomentazione di questo tipo:

Hempel prosegue il suo saggio facendo notare che i simboli E, C1, C2 ecc., stanno per tipi
o proprietà di eventi, e non per quelli che talvolta vengono detti eventi individuali. Questa
osservazione assume grande rilievo nella teoria della storiografia, dove la mancata
distinzione tra un evento individuale (che si indica con un nome) e un aspetto di un evento
individuale (che si descrive con una proposizione) ha condotto in vicoli ciechi e in grosse
confusioni. In sostanza, Hempel asserisce che un fatto o evento da spiegare è descritto, e
non può esser diversamente, da una proposizione (che costituisce l’explanandum) e che
una proposizione di natura empirica è sempre una descrizione dell’evento da un
determinato punto di vista, da un punto di vista o ipotesi o teoria che permette di vedere,
descrivere, spiegare e prevedere determinate qualità o comportamenti. Analogo discorso
vale per le C1, …, Cn, che descrivono anch’esse tipi o proprietà di eventi. Un pezzo di
carbone, per esempio, è un «oggetto» diverso per la chimica, la fisica atomica, l’ottica, la
statica, l’economia, e così di seguito.
Tale distinzione tra evento individuale, indicato da un nome, e tipo o proprietà o aspetto di
un evento, descrivibile da una proposizione, permette a Hempel di asserire che una
descrizione completa di un evento individuale (come il terremoto di San Francisco del
1906 o l’assassinio di Giulio Cesare) dovrebbe offrire la descrizione di tutte le proprietà
esibite dalla regione spaziale o oggetto individuale in questione, per il periodo di tempo
occupato dall’evento in questione; per cui risulta ovvio che una siffatta descrizione
completa è impossibile. Di conseguenza, risulta impossibile una spiegazione completa di
un evento individuale, nel senso che si possa render conto di esso in tutte le sue
caratteristiche per mezzo di ipotesi universali. Tutto ciò non implica, naturalmente, che
non si possa gradualmente ottenere una spiegazione più specifica e comprensiva di un
evento spazio-temporale.
Considerazioni siffatte risultano di immediata rilevanza per la teoria della storiografia. In
ogni caso, Hempel, prima di passare alla teoria della storiografia, torna sulla spiegazione
nelle scienze naturali; spiegazione, la cui oggettività e consistenza scientifica è garantita
dai seguenti tre requisiti:
I tre requisiti di una a) la prova empirica delle asserzioni che
buona spiegazione stabiliscono le condizioni determinanti; b) la
prova empirica delle ipotesi universali sulle quali
si fonda la spiegazione; c) una indagine che
accerti che la spiegazione sia logicamente conclusiva nel senso che la proposizione
che descrive gli eventi da spiegare consegua dalle proposizioni dei gruppi (1) e (2).
Con simili precisazioni, Hempel conduce dunque in porto la sua analisi epistemologica del
concetto di spiegazione scientifica. Le spiegazioni risultano pertanto adeguate qualora
rispettino le condizioni stabilite; e tali spiegazioni, proprio in base all’utilizzo, quali
principi esplicativi, delle ipotesi universali empiricamente controllate che si trovano in
esse, si distinguono dalle pseudo-spiegazioni.
Le pseudo-spiegazioni tentano infatti, per esempio, di render conto di determinati
comportamenti e caratteristiche degli organismi viventi riferendosi a entelechie, per il cui
funzionamento non si dà nessuna legge; ovvero cercano di spiegare i risultati raggiunti da
certi individui appellandosi alla loro «missione nella storia», al loro «destino» o a idee
simili:
Pseudospiegazioni Resoconti di questo genere si basano su metafore
storiche piuttosto che su leggi; essi son carichi di appelli
emozionali e di suggestioni invece che di idee
capaci di metterci in grado di penetrare nei nessi
fattuali; essi sostituiscono vaghe analogie e «plausibilità» intuitiva alla deduzione da
asserzioni controllabili e sono pertanto inaccettabili quali spiegazioni scientifiche.

La spiegazione nelle scienze storico-sociali

Premessi questi lineamenti di epistemologia delle scienze naturali, Hempel precisa che la
sua teoria della spiegazione funziona in storiografia altrettanto bene che in qualsiasi altra
scienza empirica:
La spiegazione in Anche la spiegazione storica, infatti, ha lo scopo
storiografia di mostrare che l’evento in questione non era «un
funziona come la qualcosa di accidentale», ma era da attendersi in
spiegazione in base a certe condizioni antecedenti o simultanee.
fisica L’aspettativa, cui si fa riferimento, non è una
profezia o una divinazione, ma una anticipazione
scientifica razionale che si fonda sull’assunzione
di leggi generali.
E se questa concezione è corretta, allora è ben strano, agli occhi di Hempel, come mai,
mentre da una parte gli storici offrono spiegazioni di fatti o eventi (quali una rivoluzione,
un compromesso, un trattato, il formarsi di costituzioni, il crollo di un impero, l’imporsi di
un dialetto a lingua nazionale, l’urbanesimo ecc.), dall’altra molti di essi neghino
risolutamente che compito delle storico sia quello di spiegare.
E, in realtà, questa ostinazione non può non apparire strana a chiunque rifletta sulla
questione. Infatti, «spiegare», per quanto si possa girare attorno ai suoi significati, non
vuol dire altro che trovare quell’insieme di condizioni o cause che, poste (dove è
possibile), producono certi eventi detti effetti e che, tolte (dove è possibile), producono il
non verificarsi di quegli eventi detti appunto effetti.
Spiegare, quindi, vuol dire risalire alle cause, cioè ad altri eventi i quali danno o
costituiscono la ragione dell’evento che desideriamo spiegare. Quando spieghiamo,
dunque, noi scegliamo tra gli infiniti fatti ed eventi del mondo alcuni (ma solo pochi) di
questi fatti ed eventi e diciamo che questi fatti o eventi (che prima abbiamo chiamato
condizioni iniziali e che abbiamo simbolizzato con C1, C2, C3, …, Cn) hanno potere
esplicativo nei confronti del fatto da spiegare. Ora, però, la domanda legittima che insorge
è questa: e perché mai proprio questi fatti, questi pochissimi fatti (C1, C2, C3, …, Cn)
hanno potere esplicativo nei confronti del fatto da spiegare? Perché questi e non altri? Con
quale criterio si attribuisce a essi «potere esplicativo»? È ovvio che un criterio ci deve
essere, perché se questo criterio non ci fosse, allora qualsiasi fatto o evento nel mondo
potrebbe essere causa del fatto da spiegare.
Che cos’è, dunque, che ha la forza logica di strappare dall’infinito oceano dei fatti e degli
eventi alcuni, pochissimi, di questi fatti ed eventi e di dichiararli responsabili di certi altri
fatti o eventi? Ebbene, la risposta a questo interrogativo è che: sono esattamente le leggi a
legare un explanandum alle condizioni; sono appunto le leggi universali a strappare dal
limbo degli infiniti fatti alcuni di essi e a imputare loro di esser causa del fatto da spiegare.
Hempel adduce esemplificazioni di effettive spiegazioni in cui le leggi sono
esplicitamente formulate. Tuttavia, si dà molto spesso, fa egli notare, che storici e
sociologi nelle loro spiegazioni tralascino l’enunciazione esplicita delle leggi universali
per il semplice motivo che queste leggi sono assunte per garantite. Si tratta per lo più di
leggi tratte dalla psicologia sociale o individuale o dal linguaggio ordinario, le quali sono
familiari a tutti a opera dell’esperienza di ogni giorno.
Lo storico, in breve, offre delle spiegazioni incomplete, avanza degli «abbozzi di
spiegazione» (explanation sketches):
Abbozzi di [Un explanation sketch] consiste nella
spiegazione indicazione più o meno vaga delle leggi e delle
condizioni considerate rilevanti, ed esso necessita
di venir «completato» per trasformarsi in una
spiegazione «in piena regola». Questo completamento richiede ulteriore ricerca
empirica, per la qual ricerca l’abbozzo suggerisce la direzione.
Da tutto ciò si può pertanto vedere come la teoria della spiegazione proposta da Hempel
sia effettivamente appropriata alla spiegazione storica. Le leggi, in una spiegazione, sia
essa di fisica, di biologia, di linguistica o di storia, sono necessarie da un punto di vista
logico: se in una spiegazione non ci fossero le leggi, non sapremmo quali sarebbero le
cause; ma se non sapessimo come individuare le cause di un evento, l’evento non potrebbe
venir spiegato. Quindi se non ci fossero le leggi, non ci sarebbero spiegazioni. Ma i libri di
storia son pieni di spiegazioni: sono esse a sostanziare il nerbo del discorso storico. E in
queste spiegazioni le leggi di copertura o sono esplicitamente formulate, oppure sono
facilmente ricavabili generalizzando il nesso (espresso da termini quali: «quindi»,
«pertanto», «di conseguenza», «poiché», e simili) tra l’explanandum e le singole
condizioni; ovvero ancora esse sono rinvenibili nella direzione indicata dall’abbozzo di
spiegazione.

Il significato degli eventi storici

Le leggi che coprono una spiegazione sono dunque logicamente necessarie; e sono
rinvenibili in un lavoro, più o meno paziente, di ricostruzione delle effettive spiegazioni
storiografiche.
Una delle condizioni per cui una spiegazione storiografica è scientifica è che le leggi siano
empiricamente confermate (a prescindere dal fatto che queste leggi siano di formulazione
ineccepibile o di formulazione probabilistica). E se le leggi sono leggi empiricamente
provate, come empiricamente provate sono le asserzioni che descrivono le condizioni
iniziali e l’asserzione che descrive l’explanandum, e se la deduzione dall’explanans
all’explanandum è corretta, allora la spiegazione è scientifica: e come tale smentibile e
parziale. Se, invece, le leggi sono empiricamente non controllabili, se sono tratte o
costituiscono teorie non passibili di controllo empirico, allora noi avremo delle
interpretazioni dei fenomeni storici, vale a dire delle «pseudospiegazioni che possono
contenere un appello emotivo ed evocare vivide associazioni suggestive, ma che non
promuovono la nostra comprensione teoretica del fenomeno in considerazione».
Come, d’altro canto, non è di grande aiuto per la comprensione dei fenomeni storici il
concetto o categoria di «significato» di un evento storico. E questo perché un evento ha
significato, è significativo o acquista rilevanza, solo in funzione di una teoria all’interno
della quale tale fenomeno o è effetto di determinate condizioni, o è condizione di un
determinato effetto. In breve: un evento ha significato in relazione ad altri eventi; ma
questa relazione, che lo rende significativo, non può essere stabilita se non da leggi e
teorie.
Inoltre, soggiunge Hempel, occorre badare al fatto che alcuni critici, guardando all’analisi
dello sviluppo delle istituzioni, hanno affermato che l’analisi storica dello sviluppo delle
istituzioni mostra come questa analisi consista nella pura descrizione dei fatti piuttosto che
in una spiegazione.
Ma anche qui Hempel taglia corto:
Resoconti storici Un resoconto dello sviluppo di una istituzione è
che sono analisi ovviamente non una semplice descrizione di tutti
causali e non gli eventi che la precedono nel tempo; in tale
semplici descrizioni resoconto vengono inclusi unicamente quegli
eventi che sono «rilevanti» per la formazione di
quella istituzione. E se un evento sia rilevante o
meno per quello sviluppo, non è faccenda di opinioni valutative, ma una questione
oggettiva dipendente da ciò che si chiama analisi causale della genesi di quella
istituzione.
Né il «significato di un evento», né lo «sviluppo di un fenomeno», riescono quindi a
infrangere il modello esplicativo proposto da Hempel. Anzi è il modello hempeliano a
render ragione, e convincentemente, di questi due tradizionali concetti della teoria della
storiografia.

Critica della teoria dell’empatia

Un ulteriore bersaglio di Hempel è la teoria dell’empatia o metodo della comprensione


empatica. Questa teoria asserisce che lo storico, per comprendere, deve ri-vivere, ri-
pensare le azioni, i calcoli, i pensieri delle persone implicate negli eventi che si vogliono
spiegare. E sarebbe questa auto-identificazione immaginativa con i suoi «eroi» a portare lo
storico alla comprensione e con ciò a una adeguata spiegazione degli eventi in questione.
Questa è dunque la teoria dell’empatia. Ma che essa non regga non ci vuol molto a
scoprirlo. Vediamo difatti, come suggerisce Hempel, che è vero che i processi empatici
hanno luogo, ma è anche vero che sono processi psicologici, che non sempre sono
possibili (se, per esempio, lo storico non è paranoico e l’«eroe» è un paranoico), che
talvolta possono risultare svianti, e che, essendo processi psicologici, non sono
automaticamente garanti dell’oggettività di quanto in essi si rappresenta. E qui sta
esattamente il punto: la teoria dell’empatia confonde un processo psicologico con un
procedimento logico.
L’empatia è un processo psicologico di immedesimazione che può talvolta costituire un
utile espediente euristico (a heuristic device: dice Hempel); ma questo processo
psicologico si risolve, dal punto di vista oggettivo – cioè dalla prospettiva della
controllabilità –, in una ipotesi o asserzione che esprime il sospetto o la speranza che le
cose (rivissute con più o meno partecipazione nel processo empatico) stiano in un certo
modo. Ma questa ipotesi o asserzione risulterà valida, non se lo storico avrà rivissuto, con
più o meno passionalità, entusiasmo o sofferenza, i fatti supposti accaduti, ma solo a patto
che tale ipotesi, ottenuta geneticamente per caso attraverso un processo empatico, sia
confermata dai documenti che essa comanda di guardare.

Sintesi dei risultati

Questi sono, dunque, i problemi e le teorie avanzate e proposte da Hempel nel suo scritto
del 1942 sulla Funzione delle leggi generali nella storia. Ricapitolando, si può dire che le
idee qui sostenute da Hempel sono:
1 la struttura formale di una spiegazione di un fatto o evento è data dalla deduzione logica
dell’asserzione che descrive questo asserto (explanandum) da un insieme di altre
asserzioni, detto explanans, consistente di un gruppo di leggi universali rilevanti e di un
gruppo di condizioni iniziali antecedenti e/o simultanee al fatto da spiegare;
2 la spiegazione, così strutturata da un punto di vista logico, deve esibire, perché possa
dirsi scientifica, l’avvenuto controllo empirico delle leggi generali, delle asserzioni che
descrivono le condizioni iniziali e dell’asserto che forma l’explanandum;
3 l’explanandum (che è una proposizione) non può descrivere un evento individuale
(indicabile con un nome), ma solo un suo aspetto; e gli aspetti di un evento sono
teoricamente infiniti; per cui una descrizione completa è impossibile; e a fortiori sarà
impossibile una spiegazione completa;
4 la struttura di una spiegazione in fisica o in biologia o in storiografia è la medesima;
5 le leggi, in una argomentazione esplicativa (sia questa storiografica o no, non ha
importanza), sono logicamente necessarie, poiché, se non ci fossero le leggi, qualsiasi
altro fatto nel mondo potrebbe essere la causa del fatto da spiegare;
6 le leggi sono talvolta espressamente formulate nelle effettive spiegazioni storiografiche;
e quando non sono esplicitamente formulate, esse sono ricavabili, sulle indicazioni degli
explanation sketches, nel lavoro di ricostruzione razionale;
7 le leggi sono punti di vista, stabiliscono punti di vista, e per questo ogni spiegazione
storica è parziale (ed, essendo scientifica, ogni spiegazione storica, oltre che parziale è
rivedibile);
8 le leggi che intervengono nelle spiegazioni storiche sono del tipo più svariato: dalle
generalizzazioni del linguaggio ordinario alle leggi dell’economia e della sociologia,
spesso di natura probabilistica;
9 le generalizzazioni non provabili o controllabili empiricamente danno origine a
interpretazioni storiche, diremmo a filosofie o a teologie della storia;
10 il concetto di significato di un evento storico e la nozione di sviluppo di una istituzione
storica, concetti che spesso hanno prodotto confusioni nella teoria tradizionale della
storiografia, trovano facilmente all’interno della teoria di Hempel una adeguata
sistemazione;
11 la teoria dell’empatia non può esser più che un espediente euristico, ed essa si fonda
sulla confusione tra un processo psicologico e un procedimento logico.

Spiegazioni probabilistiche

Sino alla fine degli anni Cinquanta, Hempel lavorò attorno al suo modello esplicativo,
detto anche nomologico-deduttivo (N-D), giacché in esso l’asserto che descrive l’evento E
da spiegare si ottiene deduttivamente a partire da principi che sono leggi universali. Agli
inizi degli anni Sessanta, tuttavia, anche sotto l’incalzare delle critiche, egli pose
l’attenzione sulla differenza fra spiegazione deterministica, attuabile con un modello
nomologico-deduttivo, e una spiegazione probabilistica. Ed è nel 1962, con uno scritto
intitolato Deductive-Nomological versus Statistical Explanation, che egli ha analizzato le
diversità e le analogie fra i due tipi di spiegazione. Riflessioni che giungeranno a piena
maturità nel 1965 con Aspects of Scientific Explanation.
Le leggi statistiche sono asserti i quali affermano che la probabilità statistica che un evento
del tipo E sia anche del tipo G è r, cioè P(G, E) = r. Per cui un asserto sarà una legge
statistica quando verrà formulato o in termini di probabilità statistica, oppure per mezzo di
termini equivalenti definiti tramite probabilità statistiche. Se una legge di questo tipo entra
in una spiegazione, questa sarà una spiegazione statistica, che può essere statistico-
deduttiva (S-D), o statistico-induttiva (S-I).
Nella spiegazione S-D vi è una sussunzione deduttiva di uniformità statistiche più limitate
sotto uniformità statistiche più generali. Viceversa, nella spiegazione S-I questa
sussunzione deduttiva non è più data. Detta P(R, S) la probabilità di R dato S; e detti Rj e
Sj i casi particolari degli eventi, rispettivamente, R e S, allora il modello della spiegazione
S-I è, per Hempel, il seguente:

dove le due righe indicano che la relazione usata non è quella deduttiva, bensì quella
induttiva.
Per Hempel, l’idea che un explanans così caratterizzato renda quasi certo, o meglio molto
probabile, l’explanandum, non è altro che una specificazione dell’idea secondo la quale
enunciati conferiscono un supporto induttivo, o una certa credibilità ad altri enunciati. Nel
nostro caso è proprio l’explanans che fornisce questo grado più o meno elevato di
sostegno induttivo all’explanandum. Secondo Hempel, visto che nella scienza le
spiegazioni statistiche giocano un ruolo fondamentale, è inutile tentare di negare loro uno
status solo per il fatto che anche la non realizzabilità dell’explanandum può essere
consistente con l’explanans. Basta solo riconoscere loro una diversa struttura logica.
Infatti, dice Hempel, esse riflettono un senso diverso della parola «perché», ossia un suo
uso statisticoprobabilistico e non più un uso deterministico, come nel caso della
spiegazione nomologico-deduttiva.
La logica dell’analisi funzionale

Classici sono da considerare due ulteriori scritti di Hempel concernenti sempre


l’epistemologia delle scienze storico-sociali: The Logic of Functional Analysis del 1959 e
Typological Methods in the Natural and Social Sciences.
Nel primo di questi scritti Hempel giunge alla seguente conclusione:

Carl Gustav Hempel (a sinistra) e Vittorio Somenzi

Il funzionalismo va Quel che oggi viene spesso chiamato


considerato come «funzionalismo» deve essere visto non come un
un programma di corpo dottrinale o una teoria in grado di
ricerca avanzare principi enormemente generali quali il
principio del funzionalismo universale, quanto
piuttosto come un programma di ricerca guidato
da determinate massime euristiche o «ipotesi di lavoro». Così, per esempio, l’idea
del funzionalismo universale, che diventa insostenibile se formulata come principio
teorico o legge empirica assoluta, potrebbe con maggior profitto venir costruita
come esprimente una direttiva per l’indagine, esattamente a ricercare gli specifici
aspetti auto-regolativi dei sistemi sociali e di altri sistemi e a esaminare le maniere in
cui vari tratti di un sistema potrebbero contribuire al suo particolare modo di auto-
regolazione.
D’altro canto, sostenendo l’irrimpiazzabile funzione delle leggi generali in qualsiasi
spiegazione scientifica, Hempel non poteva non prendere in esame quei «tipi ideali» che
Weber aveva proposto quali strumenti metodologici per la spiegazione dei fatti sociali e
degli eventi storici. Ora, il problema del potere esplicativo dei tipi ideali Hempel lo ha
affrontato nel secondo dei saggi sopra richiamati, dove, a conclusione di una puntigliosa e
sofisticata analisi, afferma:
Il concetto di tipo I diversi usi di concetto di tipo in psicologia e
nella ricerca nelle scienze sociali, quando siano stati liberati
psicologica e nelle da certe connotazioni fuorvianti, provano di
scienze sociali avere sostanzialmente lo stesso carattere che
hanno i metodi di classificazione, ordinamento,
misurazione, correlazione empirica e di
formazione delle teorie in uso nelle scienze naturali. E portano a siffatto risultato:
l’analisi delle procedure tipologiche mostra un’importante similarità logica e
metodologica tra le diverse branche della scienza empirica.
A ogni buon conto, benché i due saggi hempeliani, ora ricordati, siano tra le cose più
pregevoli scritte nel dopoguerra sulla metodologia delle scienze storico-sociali, è proprio
The Function of General Laws in History che, in questi ultimi quarant’anni, ha attratto gli
interessati al Methodenstreit, alla controversia sul metodo, concernente i procedimenti di
indagine messi in atto nelle scienze storico-sociali. La posizione di Hempel ha trovato
larghi consensi sia tra gli storici sia tra i filosofi preoccupati delle questioni di metodo.
Ma, insieme a questi consensi, essa non ha mancato di suscitare, su vari punti, un’accesa
polemica.
Il più impegnato tra i critici di Hempel è sicuramente William Dray, il quale ha affermato
che «la spiegazione del comportamento umano individuale come è data normalmente in
storia ha delle caratteristiche che rendono il modello della legge di copertura
specificamente impotente» (Laws and Explanation in History, 1957).
E il modello sarebbe impotente per la ragione che «gli oggetti dello studio storico sono
fondamentalmente diversi da quelli, per esempio, delle scienze naturali». La risposta di
Hempel a Dray è contenuta nel saggio Reasons and Covering Laws in Historical
Explanation (1963).

I paradossi della conferma

Nel 1945, su «Mind», appaiono gli Studies in the Logic of Confirmation – un lavoro
destinato a scuotere soluzioni apparentemente ben fondate. Solitamente si afferma che una
osservazione o evidenza e conferma una ipotesi H se e ci mostra che le cose stanno come
dice H; che e infirma H se mostra che le cose non stanno come dice H; e che e non
conferma e non infirma H se ciò che essa afferma non ha niente a che fare con H. Ora,
però, le ipotesi che nella scienza permettono la spiegazione e la previsione sono di forma
universale: (x) (Gx → Fx) – «tutti i metalli, se riscaldati, si dilatano».
Tale forma universale implica l’impossibilità dell’osservazione di una infinità almeno
potenziale di casi, con la conseguenza che va respinta l’idea che la conferma di una ipotesi
equivalga alla sua verifica, vale a dire alla pretesa che le evidenze osservative ci dicano in
maniera completa e definitiva quanto asserito nell’ipotesi. Precisato, dunque, che la
conferma non potrà mai essere verifica, si ripresenta il problema di vedere in che cosa
consista la conferma di ipotesi di forma universale.
Di primo acchito la risposta appare scontata: l’osservazione di un corvo nero conferma
l’ipotesi «tutti i corvi sono neri». In termini formali, l’ipotesi universale «Tutti i P sono Q»
viene confermata dalla presenza di un oggetto che è sia P sia Q; viene infirmata
dall’osservazione di un oggetto che è P e non Q; e non viene né confermata né infirmata
da un oggetto che è Q ma non P, o da un oggetto che non è né P né Q.
È questa una concezione intuitiva contro la quale Hempel rivolge i suoi strali logici in
quanto viola il requisito di equivalenza (equivalence requirement). Tale requisito dice che
ciò che conferma o infirma un’ipotesi deve confermare o infirmare pure tutte le ipotesi che
sono a essa equivalenti. E due ipotesi sono logicamente equivalenti se e solo se si giunge a
una contraddizione ammettendo che una sia vera e l’altra falsa. Per cui, se H e H1 sono
logicamente equivalenti, una evidenza e non può confermare o infirmare H senza
confermare o infirmare anche H1.
Il requisito è irrinunciabile – ma dà luogo a conseguenze paradossali. Consideriamo
l’ipotesi H: «Tutti i P sono Q». Essa è logicamente equivalente a H1: «Tutti i non-Q sono
non-P». Esemplificando, H: «Tutti i corvi sono neri»; H1: «Tutti gli oggetti non-neri sono
non-corvi». Ebbene, se H è vera, H1 non può essere falsa, giacché se fosse falsa un
oggetto non-nero sarebbe un corvo, per cui un corvo non sarebbe nero, e
conseguentemente neppure H sarebbe vera. D’altra parte, se è vera H1, non può essere
falsa H, poiché se lo fosse allora un corvo non sarebbe nero, per cui un oggetto non nero
sarebbe un corvo, e conseguentemente H1 stessa sarebbe falsa. Dunque: essendo «Tutti i P
sono Q» e «Tutti i non-Q sono non-P» ipotesi logicamente equivalenti, si dà che
un’evidenza e confermerà l’una solo e solo se confermerà anche l’altra. Ora, però, se vale
il principio che l’osservazione di un oggetto che è sia P sia Q conferma l’ipotesi «Tutti i P
sono Q» (cioè: l’osservazione di un corvo nero conferma l’ipotesi «Tutti i corvi sono
neri»), in base allo stesso principio si avrà che l’osservazione di un oggetto X che non è né
P né Q conferma l’ipotesi «Tutti i non-Q sono non-P», e pertanto, per il requisito di
equivalenza, conferma anche l’ipotesi «Tutti i P sono Q». Ma questo, allora, porta a
concludere che oggetti come un fiore rosso, una foglia ingiallita o una penna bianca
confermano l’ipotesi H: «Tutti i corvi sono neri». È inoltre possibile dimostrare che
l’ipotesi H: «Tutti i P sono Q» equivale logicamente a «Per ogni X, o X non è P o X è Q»,
che viene confermata da tutti gli oggetti che non sono P ovvero che sono Q, e quindi anche
da oggetti che sono sia Q sia non-P, con la conseguenza che da tali oggetti viene
confermata l’ipotesi «Tutti i P sono Q». Esemplificando ancora: l’ipotesi «Tutti i corvi
sono neri» è logicamente equivalente a «Per ogni oggetto, o questo oggetto non è un corvo
o è nero» – ipotesi, questa, che viene confermata da tutti gli oggetti che non sono corvi o
che sono neri e quindi anche da oggetti che sono sia neri sia non-corvi. Questo sta a
significare che l’ipotesi «Tutti i corvi sono neri» è confermata, oltre che dai corvi neri, dai
fiori rossi, dalle foglie ingiallite o da una penna bianca, anche da tutti gli oggetti che sono
neri senza essere corvi, come una penna stilografica nera.
È così che Hempel perviene a risultati controintuitivi – risultati paradossali logicamente
inevitabili qualora si accetti l’idea che un X che è sia P che Q conferma l’ipotesi «Tutti i P
sono Q», e insieme si accetta il requisito di equivalenza. E siccome, a suo avviso, sarebbe
più irrazionale abbandonare i «paradossi della conferma» che uno dei due precedenti
presupposti, egli conclude che è bene mantenere questi due presupposti insieme ai
paradossi da essi generati.

Contro la dicotomia teorico/osservativo

Un altro contributo significativo dato da Hempel sta nella revisione critica della dicotomia
teorico/osservativo – argomento classico dell’empirismo logico. Parlando di termini
teorici, Hempel non si riferisce a termini metafisici come «provvidenza», «essenza» ecc.,
ma a termini quali «elettrone», «campo magnetico» eccetera.
Il problema è di vedere se queste astrazioni – e con ciò tutta la scienza – siano riducibili
all’osservazione. La risposta di Hempel è che la conoscenza, e in modo particolare la
conoscenza scientifica, non è riducibile a dati osservativi. E se in The Theoretician’s
Dilemma, del 1957, Hempel dimostra che non c’è continuità tra la conoscenza qualitativa
della vita quotidiana e la conoscenza quantitativa della fisica, nel saggio Empiricist
Criteria of Cognitive Significance, del 1960, egli giunge alla conclusione che avere un
contenuto empirico, cioè «significanza cognitiva», non è una proprietà di singoli termini,
ma di teorie nel loro complesso. Più tardi, nel 1973, nello scritto The Meaning of
Theoretical Terms, Hempel affronterà la questione se i postulati di una teoria possano
venir considerati come definizioni implicite dei termini che ricorrono in essa. E, se con
Moritz Schlick – che qui seguiva David Hilbert – egli è disposto ad ammettere che in una
teoria matematica assiomatizzata un termine possiede le proprietà che gli attribuiscono gli
assiomi, la stessa cosa non vale, secondo Hempel, per le scienze empiriche. E questo per
la ragione che la verità dei postulati teorici non può venir imposta da «un fiat
terminologico»: le teorie delle scienze empiriche vanno soggette al controllo
dell’esperienza, e le loro asserzioni possono venir modificate in relazione ai risultati di
nuovi controlli.
Deve pertanto venir respinta la dottrina che i significati dei termini teorici siano
specificati, almeno in parte, dal calcolo teorico. In altre parole:
È superfluo, e anzi immotivato, pensare che i termini teorici siano comunque
introdotti o governati da enunciati dotati di una speciale funzione interpretativa e
caratterizzati da uno statuto logico o metodologico a parte. Enunciati del genere non
esistono, e quindi non c’è bisogno di far posto per loro in una ricostruzione analitica
delle teorie scientifiche.
Una proposta, questa, che si scontra con la tesi «provocatoria e suggestiva» difesa «con
grande eloquenza» da Feyerabend e altri circa l’incommensurabilità tra teorie. Tale tesi si
basa sull’idea che «il significato di ogni termine che usiamo dipende dal contesto teorico
in cui compare», – per cui i significati sarebbero fissi, rigidi. In effetti, la tesi
dell’incommensurabilità equivale alla tesi della totale determinazione e rigidità dei
significati.
Ma se questo fosse vero, si dovrebbe concludere per la non empiricità delle scienze
naturali. Una conclusione chiaramente inaccettabile.
Insostenibilità dell’idea di incommensurabilità

Sulla questione dell’incommensurabilità Hempel è tornato più volte nell’ultimo periodo


della sua produzione scientifica (per esempio in Scientific Rationality: Analytic versus
Pragmatic Perspective del 1979). Sulla proposta di Feyerabend, per il quale la fisica
classica e la fisica relativistica sarebbero incommensurabili, Hempel esprime dei forti
dubbi «soprattutto perché la nozione di incommensurabilità non è abbastanza chiara» e
non è affatto disposto ad accettare l’idea che, per quanto concerne le possibili basi della
scelta teorica, resterebbero soltanto – come pretende Feyerabend – giudizi estetici, giudizi
di gusto e i nostri desideri soggettivi.
Hempel riconosce che Kuhn non è arrivato, nella sua trattazione del passaggio da un
paradigma a un altro, a conclusioni tanto estreme e soggettive come quelle di Feyerabend.
Tuttavia, anche per Kuhn, «la transizione da un paradigma a un altro porta chiaramente
con sé dei notevoli cambiamenti nell’uso dei termini trasmessi alla nuova teoria; molti
degli enunciati che li contengono differiscono nei due paradigmi». Ma, si chiede Hempel,
perché un cambiamento di questo tipo dovrebbe essere considerato sintomo di un
mutato significato dei termini in questione, anziché un cambiamento nelle asserzioni
sulle entità cui essi si riferiscono?
Hempel esemplifica questa sua idea rifacendosi alla Struttura delle rivoluzioni scientifiche
dove Kuhn dichiara che il passaggio dal sistema tolemaico a quello copernicano determinò
un cambiamento di significato di termini come «pianeta», «terra» e «moto». Senonché,
domanda di nuovo Hempel,
su quali basi si può affermare che il cambiamento degli enunciati contenenti quei
termini [«pianeta», «terra», «moto»] ha modificato i significati delle parole anziché
le assunzioni o asserzioni relative alla terra, ai pianeti e ai loro moti?
In definitiva:
In mancanza di una teoria più esplicita del cambiamento di significato dei termini
teorici, rivendicare l’incommensurabilità non permette di stabilire che è impossibile
formulare dei criteri di valutazione comparata di paradigmi rivali.
Così, per esempio,
Paradigmi sembra evidente […] che i risultati delle
confrontabili misurazioni della parallasse costituiscono
un’evidenza pertinente sia alla teoria
copernicana che a quella tolemaica, e che
forniscono quindi una qualche base a un confronto fra le due.
Hempel incontrò Kuhn verso la metà degli anni Sessanta, e di tale incontro ricordava
Hempel nel 1982:
Ci vedemmo diverse volte per delle discussioni e fui molto colpito dalle sue idee. Da
principio le trovai strane, e sentii una forte resistenza a quelle idee, al suo approccio
storicista e pragmatista ai problemi di metodologia della scienza, ma da allora il mio
atteggiamento è notevolmente mutato [… Kuhn] mi ha fatto pensare di più alle
limitazioni dell’approccio analitico, che è stato quello sostenuto, sviluppato e
modificato dagli empiristi logici. Ed era quella la preparazione che io avevo avuto.
Non credo, ancora adesso, che un approccio puramente pragmatico sia possibile
[…]. Ma vedo in questo approccio molti più pregi di quelli che vedevo prima.
Sebbene Hempel sia pronto a riconoscere che i principi epistemologici che caratterizzano
la ricerca scientifica siano «parzialmente vaghi», egli ribadisce che, in ogni caso, si tratta
di valori epistemologici che impongono «vincoli di tipo oggettivo» – vale a dire vincoli
che senz’altro «impediscono di vedere la scienza come un’impresa nella quale “tutto va
bene”», secondo l’espressione feyerabendiana (Valutation and Objectivity in Science,
1983).
E, d’altro canto, è vero che Kuhn «dipinge la scelta teorica come un prodotto di decisioni
di gruppo che non sono completamente governate da regole generali e vanno spiegate
sulla base dell’addestramento comune dei membri del gruppo» (La razionalità scientifica:
punti di vista analitici e pragmatici).
Per cui non sono mancati critici che hanno accusato di irrazionalismo la posizione di
Kuhn, il quale nella scelta tra teorie si appellerebbe «alla psicologia della folla». Accusa,
questa, avvalorata anche dal fatto che Kuhn paragona il cambiamento di paradigma a una
specie di conversione religiosa che si compie sulla base di una fede.
Senonché, se si vanno a guardare i criteri prodotti dall’addestramento dei membri della
comunità scientifica, Hempel dichiara di «non riuscire a trovare nessun canone
giustificabile di indagine razionale che Kuhn abbia negato o svalutato». Kuhn, secondo
Hempel, non può venir accusato di irrazionalismo, per la seguente ragione:
Perché Kuhn non è un I requisiti, riconosciuti da Kuhn, della
irrazionalista
controllabilità, della predittività, dell’accordo coi
dati empirici e dell’ampiezza dell’ambito
basterebbero, per quanto vaghi, a escludere, per esempio, l’astrologia o la
chiromanzia dalla competizione con le teorie attualmente accettate.

La scuola dell’empirismo analitico e la scuola storico-pragmatica

I precedenti richiami a Kuhn e Feyerabend danno conto dell’interesse di Hempel –


epistemologo logicamente orientato – per un’epistemologia storicamente e socialmente
orientata. In realtà, dice Hempel, «negli anni più vicini a noi» le tematiche di filosofia
della scienza sono state al centro di controversie tra due scuole: la scuola dell’empirismo
analitico e la scuola storico-sociologica:
Per empirismo analitico intendo qui un corpus di idee che ha le proprie radici
nell’empirismo logico del Circolo di Vienna e del gruppo berlinese nonché nell’opera
di pensatori affini, come Popper, Braithwaite e Nagel. Fra i principali interpreti
dell’approccio storico-psicologico, più recente, ho in mente soprattutto Thomas
Kuhn, Paul Feyerabend e il defunto R. N. Hanson.
Secondo l’empirismo analitico, «il compito specifico della metodologia o della filosofia
della scienza è quello di mettere in luce, per mezzo dell’“analisi logica” o “ricostruzione
razionale”, la struttura logica e la ragione d’essere dell’indagine scientifica» (Scientific
Rationality: Normative versus Descriptive Construals, 1979). Così concepita,
Il compito del filosofo della [la metodologia della scienza] ha a che fare solo
scienza secondo l’empirismo
con certi aspetti logici e sistematici della scienza
analitico
che costituiscono il fondamento della sua validità
e razionalità – astraendo da, anzi escludendo, il
lato psicologico e storico della scienza come impresa sociale.
Si tratta di una concezione analoga a quella della logica formale, la quale tratta di
questioni relative alla validità degli argomenti, alla verità e alla coerenza logica, astraendo
deliberatamente dagli aspetti genetici e psicologici del ragionare.
Per come vengono intesi all’interno dell’empirismo analitico, i princìpi stabiliti dalla
metodologia della scienza «potrebbero fungere da condizioni della pratica razionale
dell’indagine empirica, da criteri di razionalità per la formulazione, il controllo e il
cambiamento delle tesi conoscitive della scienza».
Diversamente dall’empirismo analitico,
Per una la scuola storico-sociologica respinge […] l’idea
metodologia che si possa arrivare a dei principi metodologici
storicamente con un’analisi, per così dire, puramente
orientata filosofica, e sottolinea che una teoria adeguata
del metodo scientifico si deve basare su di uno
studio ravvicinato della pratica dell’indagine
scientifica e dovrebbe essere in grado di spiegare almeno alcuni degli aspetti della
teorizzazione scientifica effettiva passata e presente.
In un orizzonte siffatto, Kuhn ha considerato «fondamentalmente fuorviante e condannata
all’insuccesso la ricerca di criteri di scelta teorica generali e precisi»; egli «sottolinea che
non esistono principi universalmente vincolanti che costringano a una scelta univoca sulla
base della “sola logica e sperimentazione”»; e «presenta l’adozione di una nuova teoria da
parte della comunità scientifica come il risultato di un processo che comporta un’attività
deliberativa da parte dei singoli scienziati e insieme uno sforzo di persuasione reciproca,
ma il cui esito finale dipende anche da tutta una serie di altri fattori e quindi non è
determinata univocamente da delle regole di procedura razionale del tipo concepibile per
l’empirismo analitico». Ora, però, anche per Kuhn il comportamento scientifico è «il
miglior esempio di razionalità che abbiamo»; inoltre, un modo di procedere «è razionale
rispetto a un certo scopo e a un certo corpus di informazioni su mezzi e fini, se, giudicato
in base a tali informazioni, offre probabilità ottimali di raggiungere lo scopo»; e gli scopi o
desiderata che Kuhn pone per la scienza – come già esplicitato in precedenza – non
rendono irrazionale, secondo Hempel, la posizione di Kuhn, giacché i valori taciti assorbiti
dai membri della comunità scientifica nel corso del loro addestramento professionale sono
principi oggettivi.
Per questo Hempel non condivide l’idea di sviluppo ateleologico della scienza avanzata da
Kuhn allorché costui traccia un’analogia fra l’evoluzione degli organismi e quella delle
idee scientifiche; e non la condivide perché un comportamento scientifico di ricerca che
non possa essere spiegato come «qualcosa che nasce da un ragionamento diretto ad uno
scopo» non sarebbe né razionale né irrazionale, ma semplicemente arazionale.
Hempel scorge una forte similitudine tra la concezione di Kuhn e quella di Dewey, il quale
descrive la conoscenza come «il prodotto di indagini competenti». La realtà è che sia
Kuhn sia Dewey «concepiscono la razionalità scientifica in termini strumentali, come
atteggiamento atto ad acquisire “credenze garantite” (Dewey) o, per dirla con Kuhn, una
“conoscenza scientifica perfezionata”»; entrambi «cercano di arrivare a una conoscenza
più chiara della razionalità attraverso uno studio empirico ravvicinato dell’“indagine
competente” (Dewey) o, per citare il linguaggio di Kuhn, del comportamento scientifico di
ricerca»; entrambi pensano di ricavare da siffatto studio empirico-descrittivo standard o
principi «su come si debba procedere nel perseguimento razionale della conoscenza».
Ed entrambi – conclude Hempel – «esprimono, a dir poco, un marcato scetticismo
riguardo a una caratterizzazione della razionalità basata su “principi primi fissi” (Dewey)
stabiliti attraverso un’analisi filosofica più o meno a priori».

Gli esiti di un confronto

A dire il vero anche i sostenitori dell’empirismo analitico non proposero i loro principi a
partire da un vacuum di consapevolezza circa la storia della scienza e l’effettivo
comportamento dei ricercatori scientifici. Tuttavia, annota Hempel:
Si deve riconoscere che la preoccupazione degli empiristi analitici per la chiarezza, il
rigore, la comprensività di alcuni sistemi esplicativi davvero imponenti sul piano
tecnico erano piuttosto lontani dagli obiettivi e dai modi di pensare che motivano
l’indagine scientifica: di conseguenza, quei sistemi hanno un potenziale esplicativo
molto limitato.
In realtà, è difficile pensare che i principi metodologici di valutazione della credibilità
razionale delle ipotesi debbano valere «a priori, indipendentemente da qualsiasi fattore
empirico e immutabilmente, per tutti i tempi […] in analogia con la concezione standard
della atemporalità e validità immutabile della logica deduttiva». Per Hempel è discutibile
pensare a una concezione a priori e atemporale di tutti i principi metodologici della scelta
razionale:
È insostenibile una Infatti i tipi di teoria che è ragionevole accettare
concezione astorica o considerare degni di esame serio dipendono
di tutti i principi dalla visione generale del mondo – e soprattutto
della metodologia delle sue proprietà profonde e pervasive – che
prevale in una data epoca.
[Sembra pertanto] del tutto plausibile e
ragionevole che i criteri di scelta delle ipotesi o teorie dipendono da queste
assunzioni molto generali sulla struttura causale o sull’articolazione di base e il
grado d’ordine del mondo, [con la conseguenza che] la concezione dell’atemporalità
di tutti i criteri di scelta razionale fra le teorie deve essere abbandonata. Su questo
mi trovo d’accordo perfino con Feyerabend pur non potendo seguirlo […] nel resto
delle sue proposte anarchiche.
La conclusione cui giunge dunque «l’empirista analitico» Hempel, dopo il più serio
confronto con i rappresentanti della scuola epistemologica storico-sociologica, è la
seguente:
Il contributo della scuola C’è chiaramente bisogno […] di un ripensamento
storico-pragmatica e di un nuovo orientamento, e le idee, sia critiche
che costruttive, della scuola storico-pragmatica
hanno aperto nuove prospettive assai illuminanti e promettenti su alcuni problemi
centrali della metodologia della scienza.
Tuttavia, Hempel, «l’empirista analitico», ribadisce:
La ricerca Nella misura in cui una proposta di teoria
scientifica ha una metodologica della scienza deve rendere conto
storia, ma anche e dell’indagine scientifica in quanto impresa
soprattutto una razionale, essa dovrà specificare degli scopi di
logica tale indagine e dei principi metodologici
osservati nel loro perseguimento; e dovrà, infine,
mettere in luce la razionalità strumentale dei
principi in relazione agli scopi. La concezione
della scienza come pietra di paragone della razionalità risulterà sostenibile solo
nella misura in cui questo può essere fatto.
L’OPERAZIONISMO DI PERCY BRIDGMAN

IV
I concetti ridotti a operazioni

La teoria o immagine della scienza che è stata chiamata operazionismo (o operazionalismo


o operativismo) è dovuta al fisico (e premio Nobel) americano Percy Williams Bridgman
(1882-1961), il quale l’ha elaborata in due volumi (La logica della fisica moderna, 1927; e
La natura della teoria fisica, 1936), e poi via via specificata in una serie di saggi scritti dal
1934 al 1959 (ora raccolti in italiano in La critica della scienza).
Di fronte ai rivoluzionari sconvolgimenti della fisica contemporanea, ne La logica della
fisica moderna Bridgman sostiene:
L’atteggiamento del La prima lezione della nostra recente esperienza
fisico di fronte ai con la relatività consiste semplicemente in una
fatti è un’umiltà accentuazione di quanto l’insieme delle
quasi religiosa precedenti esperienze ci aveva pure insegnato, e
cioè che quando l’indagine sperimentale tocca
nuovi campi, dobbiamo attenderci fatti nuovi, di
un carattere totalmente diverso dai fatti già a noi noti. Questo si vede non soltanto
nella scoperta di quelle proprietà insospettate della materia in moto a velocità
elevate, che hanno ispirato la teoria della relatività, ma anche, e in modo più
evidente, nei nuovi fenomeni del dominio dei quanti. Fino a un certo punto,
naturalmente il riconoscimento di tutto ciò non comporta un cambiamento di
atteggiamento: il fatto è sempre stato per il fisico l’argomento decisivo contro cui
non v’è appello, e di fronte al quale l’unico atteggiamento possibile è un’umiltà
quasi religiosa. La nuova caratteristica della situazione attuale è una più profonda
convinzione nella reale esistenza di nuovi generi di esperienze e nella possibilità di
incontrarne continuamente.
E nel riconoscere questo è implicito che
L’esperienza è nessun elemento di una situazione fisica,
determinata solo comunque irrilevante o banale, può venir
dall’esperienza trascurato come privo di effetti sul risultato
finale, fino a che gli esperimenti non proveranno
effettivamente questa mancanza di effetti. […]
L’atteggiamento del fisico deve […] essere un atteggiamento di puro empirismo. Egli
non deve ammettere nessun principio a priori che determini o limiti le possibilità di
nuove esperienze. L’esperienza è determinata soltanto dall’esperienza. Questo
praticamente significa che noi dobbiamo rinunciare alla pretesa che tutta la natura
venga abbracciata in una formula, semplice o complicata.
Il riconoscimento dell’«essenziale impossibilità di estrapolare il significato degli
esperimenti al di là dei loro limiti attuali» farà sì che «la nostra esperienza del momento
non ponga ipoteche sul futuro», cosa accaduta, per esempio, con la fisica newtoniana che
ha costretto Einstein a rivedere un atteggiamento di fondo.
Dunque: l’esperienza è determinata soltanto dall’esperienza. E perché solo l’esperienza sia
guida di se stessa, Bridgman sostiene che occorre fare quel che, a suo avviso, avrebbe
fatto Einstein (e che Einstein avrebbe fatto realmente questo è stato oggetto di
discussione), vale a dire: ridurre il significato dei concetti scientifici a una operazione
empirica o a un insieme di operazioni.
Possiamo illustrare, dice Bridgman, questo nuovo atteggiamento verso i concetti
prendendo in considerazione il concetto di lunghezza:
Cosa intendiamo per lunghezza di un oggetto? Evidentemente sappiamo che cosa intendiamo per
lunghezza se possiamo dire
qual è la lunghezza di qualunque oggetto, e al fisico
Un concetto è non occorre niente di più. Per trovare la lunghezza di un
sinonimo del oggetto, dobbiamo compiere certe operazioni fisiche. Il
concetto di lunghezza risulta pertanto fissato quando sono
corrispondente fissate le operazioni mediante cui la lunghezza si misura;
gruppo di vale a dire, il concetto di lunghezza implica né più né meno
operazioni che il gruppo di operazioni con cui la lunghezza si
determina. In generale, per concetto noi non intendiamo
altro che un gruppo di operazioni, il concetto è sinonimo del
corrispondente gruppo di operazioni. Se il concetto è fisico,
come nel caso della lunghezza, le operazioni sono effettive operazioni fisiche, cioè quelle mediante cui
si misura la lunghezza; se il concetto è mentale, come nel caso della continuità matematica, le
operazioni sono operazioni mentali, cioè quelle mediante cui determiniamo se un dato insieme di
grandezze è continuo o no. Non intendiamo con ciò che vi sia una divisione netta e fissa tra concetti
mentali e concetti fisici, o che l’una specie di concetti non contenga sempre qualche elemento dell’altra;
questa classificazione non ha importanza ai fini delle nostre future considerazioni.

Guardare a quanto la teoria fa

Per Bridgman la critica epistemologica è una attività che egli, così leggiamo ne La natura
della teoria fisica, si è quasi sentito costretto a praticare, spintovi «dai molti insuccessi che
le teorie formulate incontrano nel confronto con situazioni reali».
E il metodo proposto da Bridgman di tradurre i concetti in operazioni si fonda sulla
convinzione che
Una tesi è quello l’aspetto più importante di una teoria è quello
che fa e non quello che questa teoria effettivamente fa, non quello
che dice di fare che dice di fare né quello che il suo autore ritiene
che essa faccia, tutte cose che spesso sono
parecchio diverse. Dal punto di vista critico la
tecnica più importante consiste nel capire chiaramente e nel riferire altrettanto
chiaramente quello che uno effettivamente fa e quello che effettivamente avviene in
una determinata situazione, e si tratta di una tecnica che non si acquista tanto
facilmente e in cui si diventa esperti solo praticandola di continuo.
Ciò premesso, diventa evidente, scrive Bridgman ne La logica della fisica moderna, che,
se noi definiamo un concetto non in termini di proprietà ma in termini di operazioni
effettive, allora
Il canone evitiamo il pericolo di dover rivedere il nostro
fondamentale: atteggiamento verso la natura. Infatti se
descrivere l’esperienza viene sempre descritta in termini di
l’esperienza con esperienza, vi sarà sempre corrispondenza fra
l’esperienza l’esperienza e la nostra descrizione di essa, e così
non ci troveremo mai imbarazzati come ci è
successo cercando di rintracciare in natura il
prototipo del tempo assoluto di Newton […].
Einstein assoggettò il concetto di simultaneità a una critica consistente, in sostanza,
nel mostrare che le operazioni grazie a cui due eventi possono essere descritti come
simultanei, comportano misure sui due eventi effettuate da un osservatore; di modo
che l’essere «simultanei» non è una proprietà assoluta riguardante solo i due eventi,
ma implica invece il rapporto degli eventi con l’osservatore […]. A prescindere dalle
relazioni quantitative precise della teoria di Einstein, il punto importante per noi è
che se avessimo adottato il punto di vista operativo, avremmo visto, prima ancora
della scoperta dei fenomeni fisici effettivi, che la simultaneità è in sostanza un
concetto relativo, e avremmo fatto posto nel nostro pensiero alla possibilità di
scoprire quegli effetti che vennero poi scoperti.
Questi, in nuce, sono i nuclei teorici fondamentali della concezione operativistica della
scienza. E una prima e immediata conseguenza di essa è che, una volta adottato il punto di
vista operativo, tutta una serie di problemi e di concetti risulterebbero privi di significato:
Hanno senso le Se una questione specifica ha senso, deve essere
questioni a cui si possibile trovare operazioni mediante cui a essa
può dare risposta in si può dare una risposta. In molti casi si vedrà
termini di che tali operazioni non possono esistere e che
operazioni quindi la questione non ha senso. Per esempio,
non significa nulla il chiedere se una stella è in
quiete o no. Un altro esempio è una questione
proposta da Clifford, cioè se non è possibile che
al muoversi del sistema solare da una parte dello spazio a un’altra, la scala assoluta
delle grandezze cambi, ma in modo tale da influenzare egualmente tutti gli oggetti,
cosicché il cambiamento di scala non si potrebbe mai rivelare.
Così, analogamente, nella prospettiva operazionista
molte delle questioni poste intorno a oggetti sociali e filosofici risulteranno prive di
significato, una volta esaminate dal punto di vista delle operazioni.
Bridgman si augurava che il pensare operativo (per un verso più facile, per
l’inutilizzabilità in esso di antiche generalizzazioni; e per l’altro più difficile, dato che
spesso le implicazioni operative di un concetto sono nascoste) avrebbe riformato «l’arte
sociale della conversazione» e che l’effetto finale sarebbe stato «un risparmio delle
energie individuali a favore di scambi di idee più stimolanti e interessanti».

La discussione sull’operazionismo
Ne La logica della fisica moderna Bridgman ha analizzato operativisticamente concetti
quali: lunghezza, tempo, energia, campo, concetti che stanno alla base delle moderne
teorie relativistiche e quantistiche. Ne La natura della teoria fisica, egli indaga sul
concetto stesso di operazione, sui principi elementari della logica, sui rapporti tra pensiero
e linguaggio e tra matematica ed esperienza, indagini queste che permettono di impostare
le sue ulteriori riflessioni sulla relatività e la meccanica ondulatoria.
Nei saggi inclusi nel volume La critica operazionale della scienza, Bridgman torna su
punti precisi di natura generale e specifica, e cerca di rispondere alle varie critiche che la
sua prospettiva aveva nel frattempo suscitato, prima fra tutte l’accusa di solipsismo:
Io non conosco il significato di un termine se non sono in grado di darne una
spiegazione «operazionale».
Ma quelle operazioni sono le operazioni di un soggetto, e, allora, come si sfugge al
solipsismo? Bridgman non pare aver paura dell’obiezione:
In che senso la Molti […] hanno fatto riferimento alla scienza
scienza ha un come a qualcosa di essenzialmente e
carattere privato indiscutibilmente «pubblico»; io credo invece che
un semplice esame di ciò che si fa in ogni
indagine scientifica dimostri che la parte più
importante della scienza ha un carattere «privato».

[Il punto di vista solipsistico] non è altro che riconoscere francamente quello che mi
dà l’esperienza diretta; noi non possiamo fare altro che cercare di adeguare la nostra
mentalità in modo che questo punto di vista non ci appaia ripugnante.
La scienza è soltanto la mia scienza privata, anche se
nel decidere quello che deve essere la mia scienza privata trovo utile considerare
solo quegli aspetti della mia esperienza in cui i miei simili agiscono in un particolare
modo, [e anche se] tutta la storia linguistica della razza umana è una storia della
deliberata soppressione delle evidenti differenze operazionali fra le mie sensazioni e
le tue sensazioni, fra il mio pensiero e il tuo pensiero.
Altro punto molto discusso dell’epistemologia operazionistica è stato il seguente. Allorché
si afferma che un concetto è equivalente a un corrispondente gruppo di operazioni, allora
occorre essere conseguenti nel senso che
se abbiamo più di un gruppo di operazioni, abbiamo più di un concetto e a rigore
dovremmo dare un nome distinto a ogni differente gruppo di operazioni.
Per cui, se noi misuriamo una distanza prima con aste rigide e poi con triangolazioni
ottiche, avremo due concetti; e analogamente avremo due concetti se misuriamo una
temperatura prima con un termometro a mercurio e successivamente con uno ad alcool. In
questo modo, fa notare Hempel in Filosofia delle scienze naturali:
Difficoltà della La massima operativa […] ci obbligherebbe a
massima operativa favorire una proliferazione di concetti di
lunghezza, di temperatura e di tutti gli altri
concetti scientifici, che non sarebbe soltanto poco
maneggevole in pratica, ma teoricamente senza un termine. E questo distruggerebbe
uno degli scopi principali della scienza; cioè il conseguimento di una spiegazione
semplice e sistematicamente unificata dei fenomeni empirici.

Nella teorizzazione scientifica non troviamo la distinzione fra numerosi concetti


diversi di lunghezza (per esempio), ciascuno caratterizzato mediante la sua propria
definizione operativa. Piuttosto la teoria fisica considera un solo concetto di
lunghezza e vari modi più o meno accurati di misurare le lunghezze in circostanze
diverse.
Inoltre c’è da far presente: che spesso sono l’analisi teorica e lo sviluppo del sistema di
leggi a introdurre modifiche dei criteri operativi originariamente adottati; che le
operazioni, come scrive Vittorio Mathieu, sono strumenti di prova delle teorie e non che le
teorie sono strumenti di operazioni; che gli operazionisti – e qui è Popper a parlare – «non
possono eliminare il fatto che nelle loro definizioni o descrizioni operazionali hanno il
bisogno di termini universali che sono da prendersi come indefiniti»; che non bisogna
essere troppo sbrigativi con le questioni e i concetti supposti privi di senso, poiché non
pare esservi sinonimia tra «ambito del vero» e «ambito dell’operativamente accertabile»:
una teoria può essere vera anche se non lo possiamo accertare, per cui «non accertabile
operativamente» non equivale a «privo di senso».
Non va infine dimenticato l’influsso che l’operativismo ha avuto, soprattutto in America,
sulla metodologia delle scienze sociali e psicologiche.
IL RAZIONALISMO APPLICATO DI GASTON
BACHELARD

V
La scienza non ha la filosofia che si merita

Gaston Bachelard nasce a Bar-sur-Aube, nella Francia meridionale, nel 1884. A ventotto anni si
laurea in matematica; a trentasei in filosofia; mobilitato nell’agosto del ’14, viene congedato nel ’19. Dal ’19
al ’28 insegna fisica e scienze naturali al Collège di Bar-sur-Aube. Nel 1928 viene incaricato di un corso
complementare di filosofia all’università di Digione, dove insegna sino al 1940, anno in cui succede alla
Sorbonne ad Abel Rey sulla cattedra di storia e filosofia della scienza. Qui insegna sino al 1954. Muore a
Parigi nel 1962.

Le opere epistemologiche di Bachelard (Il pluralismo coerente della chimica moderna,


1932; Le intuizioni atomistiche. Saggio di classificazione, 1933; Il nuovo spirito
scientifico, 1934; La dialettica della durata, 1936; La formazione dello spirito scientifico.
Contributo a una psicoanalisi della conoscenza oggettiva, 1938; La filosofia del non,
1940) appaiono in un periodo in cui la filosofia della scienza (pensiamo appunto al
neopositivismo viennese o anche all’operazionismo americano) si presenta come una
concezione antimetafisica da una parte e sostanzialmente astorica dall’altra.
È ben vero che Bachelard proseguirà il suo lavoro di epistemologo e storico della scienza
anche dopo la seconda guerra mondiale (Il razionalismo applicato, 1949; L’attività
razionalista della fisica contemporanea, 1951; Il materialismo razionale, 1953), tuttavia
c’è da dire che ancora in questi anni, non essendosi diffuso il pensiero di Popper e della
sua scuola, la filosofia scientifica (cioè legata alla scienza e che pretendeva di render conto
della scienza) era ancora il neopositivismo.
Gaston Bachelard

Ebbene, l’epistemologia di Bachelard (seguita poi in vario modo da Canguilhem, Foucault


e Althusser), data l’epoca in cui sorse e si sviluppò, rappresenta il pensiero, carico di
novità, di un filosofo solitario (benché non isolato) il quale, all’interno della tradizione
francese di riflessione sulla scienza (Meyerson, Poincaré, Duhem), oltrepassa la filosofia
«ufficiale» della scienza dei suoi giorni (il neopositivismo), e propone, come ha scritto
Althusser, un non-positivismo radicale e deliberato.
Ciò premesso, occorre subito far presente che (tralasciando in questa sede tutti gli studi
che Bachelard ha dedicato all’attività fantastica, cioè alla rêverie: Lautréamont, 1939;
Psicoanalisi delle acque, 1942; Psicoanalisi dell’aria, 1943; La terra e le forze, 1947; La
terra e il riposo, 1948; La poetica dello spazio, 1957; La poetica della réverie, 1960; La
fiamma di una candela, 1961) i tratti di fondo del pensiero di Bachelard possono ridursi ai
seguenti quattro:
1 il filosofo deve essere «contemporaneo» alla scienza del proprio tempo;
2 sia l’empirismo di tradizione baconiana sia il razionalismo idealistico sono incapaci di
render conto della reale ed effettiva pratica scientifica;
3 la scienza è un evento essenzialmente storico;
4 la scienza possiede «un ineluttabile carattere sociale».
Ne Il materialismo razionale Bachelard constata amaramente che «la scienza non ha la
filosofia che si merita». La filosofia è sempre in ritardo di una mutazione sul sapere
scientifico. E alla «filosofia dei filosofi» Bachelard cerca di opporre «la filosofia prodotta
dalla scienza»: ciò che caratterizza la filosofia dei filosofi sono attributi come l’unità, la
chiusura e l’immobilità, mentre i tratti distintivi della «filosofia scientifica» (o filosofia
creata dalla scienza) sono la mancanza di un’unità o di un centro, l’apertura e la storicità.
Dice Bachelard ne La filosofia del non:
Chiederemo […] ai filosofi di rompere con l’ambizione di trovare un solo punto di
vista fisso, per giudicare una scienza così vasta e così mutevole come la fisica.
Per Bachelard, la filosofia delle scienze è una filosofia dispersiva, distribuita:
La scienza ha Si dovrebbe fondare una filosofia del dettaglio
bisogno di una epistemologico, una filosofia differenziale da
filosofia aperta contrapporre alla filosofia integrale dei filosofi.
Sarebbe questa filosofia differenziale a essere
incaricata di misurare il divenire di un pensiero.
[Essa] è l’unica filosofia aperta. Ogni altra filosofia pone i suoi principi come
intangibili, le sue verità prime come totali e acquisite. Ogni altra filosofia si gloria
della sua chiusura.

È la scienza che istruisce la ragione

Ne Il razionalismo applicato Bachelard stabilisce un preciso parallelo tra epistemologia e


scienza:
L’epistemologia deve essere altrettanto mobile della scienza.
Ma è ovvio che, perché si dia una filosofia dispersiva, distribuita, aperta, differenziale e
mobile, è necessario entrare dentro le pratiche scientifiche piuttosto che giudicarle
dall’esterno; occorre, insomma, che il filosofo abbia fiducia dello scienziato, che sia egli
stesso scienziato (savant) prima che philosophe.
Secondo Bachelard, esistono pochi pensieri filosoficamente più vari del pensiero
scientifico:
il ruolo della filosofia della scienza è di censire questa varietà e di mostrare quanto i
filosofi imparerebbero se volessero meditare il pensiero scientifico contemporaneo.
E, mentre i neopositivisti andarono alla ricerca di un principio rigido (il principio di
verificazione) in grado di dividere nettamente la scienza dalla non-scienza, Bachelard non
accetta un criterio a priori che abbia la presunzione di cogliere l’essenza della scientificità.
Non è la ragione filosofica che ammaestra la scienza, quanto piuttosto vale il contrario,
come leggiamo ne La filosofia del non:
La ragione deve È la scienza che istruisce la ragione. […] La
obbedire alla ragione deve obbedire alla scienza, alla scienza
scienza più evoluta, alla scienza che evolve […].
L’aritmetica non è fondata sulla ragione. È la
dottrina della ragione che è fondata
sull’aritmetica elementare. Prima di saper contare, io non sapevo affatto cosa fosse
la ragione. In generale, lo spirito deve piegarsi alle condizioni del sapere […]. La
ragione, ancora una volta, deve obbedire alla scienza. La geometria, la fisica,
l’aritmetica sono scienze; la dottrina tradizionale d’una ragione assoluta e
immutabile non è che una filosofia. È una filosofia che ha fatto il suo tempo.
Per tutto ciò, scrive Bachelard ne Il nuovo spirito scientifico:
Lo spirito ha una struttura variabile dal momento che la conoscenza ha una storia.
E se la conoscenza ha una storia, allora lo strumento privilegiato per le indagini di
filosofia della scienza non è, come per i neopositivisti, la logica, bensì la storia della
scienza, concepita come l’individuazione delle fasi effettive attraversate dallo sviluppo del
sapere scientifico.
Dunque, contrariamente ai neopositivisti, Bachelard non accetta né un principio stabilente
a priori la scientificità delle scienze, né il rifiuto della storia operata dagli stessi
neopositivisti. E, d’altro canto, Bachelard combatte sì la filosofia dei filosofi, ma non
reputa – come fecero i filosofi del Circolo di Vienna – la metafisica come insensata o
indifferente per la scienza stessa. Scrive Bachelard:
Lo spirito può cambiare metafisica; non può fare a meno della metafisica.

Un po’ di metafisica ci allontana dalla natura, molta metafisica ce ne avvicina.


Da ciò si vede che Bachelard non nutre pregiudizi antifilosofici o antimetafisici in nome
della scienza. Egli avversa la filosofia che non è contemporanea alla scienza; schernisce i
filosofi che «pensano prima di studiare», e sotto la cui penna «la relatività degenera in
relativismo, l’ipotesi in supposizione, l’assioma in verità prima».
E questi giudizi sprezzanti nei riguardi della «filosofia dei filosofi» scaturiscono dalla
decisa volontà di Bachelard «di dare alla filosofia – così ha scritto Canguilhem – una
chance per diventare contemporanea della scienza».

La formazione dello spirito scientifico e le rotture epistemologiche

Né l’empirismo tradizionale né il razionalismo idealistico sono in grado, secondo


Bachelard, di render conto dell’effettiva pratica scientifica.
Nella pratica della ricerca scientifica e nella storia della scienza non è affatto rinvenibile
quell’assoluto costituito dal dato immediato di cui parla l’empirismo; né Bachelard accetta
il non meno grave pregiudizio razionalistico che pretende «d’imporre allo scienziato un
quadro a priori di ciò che vi è di essenziale nella funzione scientifica»:
Ragione assoluta e reale assoluto sono due concetti filosoficamente inutili.
La realtà è, per Bachelard, che non possiamo considerare la scienza indipendentemente dal
suo divenire. E il «reale scientifico» non è immediato e primario:
[Il reale scientifico] ha bisogno di ricevere un valore convenzionale. Bisogna che
esso sia ripreso in un sistema teorico. Qui, come dappertutto, è l’oggettivazione che
domina l’oggettività.
Il «dato scientifico», pertanto, è sempre relativo a sistemi teorici. Lo scienziato non parte
mai dall’esperienza pura. A tal proposito, ne La formazione dello spirito scientifico,
Bachelard scrive:
Lo spirito ha l’età Si conosce contro una conoscenza anteriore,
dei suoi pregiudizi distruggendo conoscenze mal fatte, superando
ciò che, all’interno dello stesso spirito, fa
ostacolo alla spiritualizzazione […]. L’idea di
partire da zero per fondare e accrescere il proprio patrimonio culturale è propria
delle culture di semplice giustapposizione, nelle quali un fatto conosciuto è
immediatamente una ricchezza. Ma di fronte al mistero del reale, l’anima non può
farsi, per decreto, ingenua. È allora impossibile annullare con un sol colpo le
conoscenze abituali. Di fronte al reale, ciò che si crede di sapere chiaramente offusca
ciò che si dovrebbe sapere. Quando si presenta alla cultura scientifica, lo spirito non
è mai giovane. È anzi molto vecchio, perché ha l’età dei suoi pregiudizi. Accedere
alla scienza vuol dire, spiritualmente, ringiovanire, vuol dire accettare una brusca
mutazione che deve contraddire un passato.
Queste successive contraddizioni del «passato» sono, secondo Bachelard, delle autentiche
rotture (coupures) epistemologiche le quali comportano, di volta in volta, la negazione di
qualcosa di fondamentale (presupposti, categorie centrali, metodi) su cui si reggeva la
ricerca della precedente fase: e la teoria della relatività e la teoria quantistica, col loro
mettere in discussione i concetti di spazio, tempo e causalità, rappresenterebbero alcune
tra le più clamorose conferme dell’idea di rottura epistemologica. La storia della scienza
avanza dunque per successive rotture epistemologiche.
Ma c’è rottura – sostiene Bachelard contrariamente a molti altri, tra cui Popper – anche tra
sapere comune e conoscenza scientifica. Scrive Bachelard:
La conoscenza volgare ha sempre più risposte che domande. Ha la risposta per tutto.

[Per contro, lo spirito scientifico] ci proibisce di avere opinioni su questioni che non
comprendiamo, su questioni che non sappiamo formulare chiaramente. Prima di
tutto, bisogna saper porre problemi.
Per uno spirito scientifico, ogni teoria è la risposta a una domanda. E il senso e la
costruzione del problema sono le caratteristiche prime dello spirito scientifico: la
conoscenza volgare è fatta di risposte, la conoscenza scientifica vive nell’agitazione dei
problemi:
L’io scientifico è programma d’esperienze, il non-io scientifico invece è problematica
già costituita.

Non c’è verità senza errore rettificato

Ma c’è di più, poiché, diversamente dalle routines incorreggibili dell’esperienza comune,


la conoscenza scientifica avanza per successive rettificazioni delle teorie precedenti:
Una verità ha il suo pieno senso solo al termine di una polemica. Non esiste una
verità prima. Ci sono solo primi errori.
Per andare avanti, occorre avere il coraggio di sbagliare. Psicologicamente,
non c’è verità senza errore rettificato.
Ma, al di là del sentimento psicologico, afferma Bachelard ne Il nuovo spirito scientifico:
lo spirito scientifico è essenzialmente una rettificazione del sapere, un ampliamento
degli schemi della conoscenza. Esso giudica il suo passato storico condannandolo.
La sua struttura è la coscienza dei suoi errori storici. Dal punto di vista scientifico, il
vero è pensato come rettificazione storica d’un lungo errore, l’esperienza come
rettificazione dell’illusione comune e primitiva.
Una verità sullo sfondo di un errore: questa è la forma del pensiero scientifico il cui
metodo, per Bachelard, è il seguente:
Il metodo scientifico È un metodo che cerca il rischio […]. Il dubbio è
è un metodo che davanti al metodo e non dietro, come in Cartesio.
cerca il rischio È questo il motivo per cui posso dire senza
magniloquenza che il pensiero scientifico è un
pensiero impegnato. Esso mette continuamente in
gioco la sua stessa organizzazione. C’è di più. Paradossalmente sembra che lo
spirito scientifico viva nella strana speranza che lo stesso metodo si imbatta in uno
scacco vitale. Ciò perché uno scacco ha come conseguenza il fatto nuovo e l’idea
nuova.
Le ipotesi scientifiche possono subire scacchi; lo spirito non scientifico, invece, è quello
che diventa «impermeabile alle smentite dell’esperienza»: è questa la ragione per cui le
routines che sono incorreggibili e le idee vaghe sono sempre verificabili; ed è questa la
ragione per cui è antiscientifico l’atteggiamento di colui che trova sempre la maniera di
verificare la propria teoria piuttosto che mostrarla errata e quindi rettificarla.
Tra la «conoscenza sensibile» e la «conoscenza scientifica» c’è pertanto rottura. Di
conseguenza, Bachelard avversa le pretese e la pratica della divulgazione scientifica.
Queste pretese e questa pratica si fondano sulla incomprensione della rottura
epistemologica esistente tra l’esperienza comune e l’esperienza scientifica («ogni
esperienza nuova nasce malgrado l’esperienza immediata»), e i loro relativi linguaggi
(generico quello della conoscenza comune, specialistico quello della conoscenza
scientifica).
E, d’altro canto, la rottura epistemologica tra conoscenza scientifica e conoscenza volgare
pone grossi problemi nella didattica delle scienze, il cui insegnamento implica nozioni e
concetti che non possono essere riportati ai concetti e alle nozioni spontanee e intuitive
dell’esperienza comune. Anzi, le nozioni e i concetti della scienza sono tali in quanto si
oppongono a quelli della conoscenza volgare. La conoscenza scientifica non è immediata:
ogni dato scientifico e ogni idea scientifica sono l’esito di un lungo lavoro (di costruzione
e di rettificazione) razionale. Così, dice Bachelard ne La formazione dello spirito
scientifico,
[Nella scienza] niente va da sé. Niente è dato. Tutto è costruito.

L’ostacolo epistemologico
La conoscenza scientifica avanza per successive rotture epistemologiche; è in questo
modo che essa si approssima alla verità:
Non abbiamo trovato alcuna soluzione possibile al problema della verità, se non
scartando errori via via più fini.
Senonché, il progresso della scienza, questa continua rettificazione degli errori precedenti,
e specialmente quelle rettificazioni le quali costituiscono delle autentiche coupures, non
sono passi effettuabili con facilità, e ciò per la ragione del loro scontro con quelli che
Bachelard chiama «ostacoli epistemologici»:
Ostacoli Quando si cercano le condizioni psicologiche del
epistemologici quali progresso scientifico, si giunge presto alla
cause d’inerzia convinzione che il problema della conoscenza
nello sviluppo della scientifica bisogna porlo in termini di ostacoli. E
scienza non si tratta di considerare ostacoli esterni come
la complessità e la fugacità dei fenomeni, né di
incriminare la debolezza dei sensi e dello spirito
umano: le lentezze e le disfunzioni appaiono, per
una sorta di necessità funzionale, all’interno stesso dell’atto conoscitivo. È qui che
mostreremo cause di stagnazione e persino di regressione, è qui che scopriremo
quelle cause d’inerzia che chiameremo ostacoli epistemologici. La conoscenza del
reale è una luce che proietta sempre da qualche parte delle ombre.
Potremo dire che l’ostacolo epistemologico è un’idea che proibisce e blocca altre idee:
abitudini intellettuali incallite, l’inerzia che fa ristagnare le culture, teorie scientifiche
insegnate come dogmi, i dogmi ideologici che bloccano specifici sviluppi di ricerca, ecco
alcuni degli ostacoli epistemologici.
Il primo ostacolo da superare è l’opinione:
L’opinione ha, di diritto, sempre torto. L’opinione pensa male; essa non pensa;
traduce bisogni in conoscenze. Decifrando gli oggetti secondo la loro utilità, si
impedisce di conoscerli. Non si può fondare niente sull’opinione: bisogna anzitutto
distruggerla.
Un altro ostacolo è la mancanza del genuino senso dei problemi, senso che si perde
allorché la ricerca si rattrappisce dentro la crosta delle conoscenze date per scontate, non
più problematizzate. Mediante l’uso, le idee – dice Bachelard – si valorizzano
indebitamente. E questo è un vero e proprio fattore d’inerzia per lo spirito. Si dà il caso
che talvolta un’idea dominante polarizza uno spirito nella sua totalità.
Un epistemologo irriverente diceva, una ventina d’anni fa, che i grandi uomini sono
utili alla scienza nella prima metà della loro vita, nocivi nella seconda metà.
Ostacoli di grande rilievo e difficili da rimuovere sono quello dell’esperienza prima,
dell’esperienza che pretende di porsi al di là della critica; quello che può chiamarsi
l’ostacolo realista e che consiste nella seduzione dell’idea di sostanza; e quello che è
l’ostacolo animista («La parola vita è una parola magica. È una parola valorizzata»).
Ebbene, dinanzi a queste realtà costituite dagli ostacoli epistemologici, Bachelard propone
una psicoanalisi della conoscenza oggettiva finalizzata all’individuazione e alla messa
fuori gioco di quegli ostacoli che bloccano lo sviluppo dello spirito scientifico. Una catarsi
di questo tipo è appunto necessaria se vogliamo rendere possibile il progresso della
scienza, dato che si conosce sempre contro una conoscenza anteriore.

Scienza e storia della scienza

Tutto ciò mostra anche la funzione della negazione all’interno della nostra attività di
conoscenza e all’interno della filosofia stessa, che, secondo Bachelard, deve configurarsi
come una filosofia del non, decisa nel respingere le pretese dei vecchi sistemi di
presentarsi come concezioni assolute e totalizzanti della realtà e di imporre principi
intangibili alla scienza. La tesi di Bachelard è che l’evoluzione della conoscenza è senza
fine e che la filosofia deve venir istruita dalla scienza. Ciò potrà anche turbare il filosofo,
eppure, è necessario arrivare a una conclusione come questa se vogliamo definire la
filosofia della conoscenza scientifica come una filosofia aperta, come la coscienza di
uno spirito che si fonda lavorando sull’ignoto, cercando nel reale quel che
contraddice conoscenze anteriori. Prima d’ogni altra cosa, bisogna prender
coscienza del fatto che l’esperienza nuova dice no all’esperienza vecchia, altrimenti
è del tutto evidente che non si tratta proprio di un’esperienza nuova. Tuttavia, questo
no non è mai definitivo per uno spirito che sa dialetticizzare i propri principi,
costituire in se stesso nuove specie di evidenza, arricchire il proprio corpo di
spiegazioni senza concedere nessun privilegio a quello che sarebbe un corpo di
spiegazioni naturali buono a spiegare tutto.
Non c’è una ragione al di sopra e fuori della pratica scientifica e della storia della scienza.
La scienza trova i suoi fondamenti nella sua storia. E questa storia, frutto di lavoro
collettivo (giacché «il lavoratore isolato deve riconoscere “che da solo non avrebbe
trovato niente”»), va riscritta e sempre diversamente approfondita ogni qualvolta la «città
scientifica» va soggetta a una delle sue trasformazioni: è infatti solo con la scienza di oggi
che possiamo leggere e interpretare la scienza di ieri.

Stati d’animo

Umberto Boccioni Stati d’animo III: quelli che restano. New York, Museum of Modern Art

Stati d’animo II: quelli che vanno. New York, Museum of Modern Art

Stati d’animo I. Gli addii. New York, Museum of Modern Art


Stati d’animo I. Gli addii. Milano, Cimac – Civico Museo d’Arte Contemporanea

Max Ernst (1891-1976), L’occhio del silenzio. Saint Louis, Washington University
Karl Popper

PARTE SETTIMA

KARL POPPER E L’EPISTEMOLOGIA POSTPOPPERIANA

Un sistema empirico deve poter essere confutato


dall’esperienza.
Karl Popper
Con il termine «paradigma» voglio indicare conquiste scientifiche universalmente riconosciute, le
quali, per un certo periodo, forniscono un modello di problemi e soluzioni accettabili a coloro che
praticano un certo campo di ricerche.
Thomas Kuhn
La scienza è un campo di battaglia per programmi di ricerca piuttosto che per teorie isolate.
Imre Lakatos
Data una norma qualsiasi, per quanto «fondamentale» o «necessaria» essa sia per la scienza, ci sono
sempre circostanze nelle quali è opportuno non solo ignorare la norma, ma adottare il suo opposto.
Paul Feyerabend

IL RAZIONALISMO CRITICO DI KARL POPPER

I
La vita e le opere

Karl Raymund Popper è nato nel 1902 a Vienna, nella cui università studia filosofia, matematica e
fisica (seguendo corsi di Schlick, Wirtinger, Furtwängler e Hahn). Per un non lungo periodo di tempo
lavora presso la clinica di consulenza per l’infanzia di Alfred Adler. Si interessa di musica e di storia della
musica.
Nel 1928 si laurea in filosofia discutendo la sua tesi (Zur Methodenfrage der Denkpsychologie) con lo
psicologo (gestaltista, e comunque antiassociazionista) Karl Bühler. Nel 1929 prende l’abilitazione
all’insegnamento della matematica e della fisica nelle scuole secondarie inferiori. E proprio per questo
esame scrive una tesi sui problemi dell’assiomatica in geometria, tesi che comprende anche un capitolo
sulla geometria non euclidea. Prende parte al movimento di riforma della scuola elementare austriaca,
scrivendo anche articoli e brevi recensioni su «Die Quelle» e «Schulreform».
Nel 1934 (ma con data 1935) esce la sua fondamentale opera Logik der Forschung (Logica della
scoperta scientifica, 1935).
Di origine ebraica, emigra nel 1937 in Nuova Zelanda, dove insegna al Canterbury University College
di Christchurch. Qui, come «fatica di guerra» scrive The Poverty of Historicism (Miseria dello storicismo,
1944-1945) e i due volumi di The Open Society and Its Enemies (La società aperta e i suoi nemici, 1945).
Finita la guerra, Popper viene chiamato a insegnare presso la London School of Economics, e agli
inizi del ’46 si trasferisce in Inghilterra, dove prosegue il suo lavoro in filosofia della scienza. I risultati di
questo lavoro sono sostanzialmente raccolti nei due volumi Conjectures and Refutations (Congetture e
confutazioni, 1963), Objective Knowledge (Conoscenza oggettiva, 1972) e nel Poscritto alla logica della
scoperta scientifica (in bozze sin dal 1959).
Dell’ottobre del 1961 è il dibattito tra Popper e Adorno sulla logica delle scienze sociali, dibattito che
ebbe luogo a Tübingen in occasione del Congresso della Società tedesca di sociologia (gli atti sono stati
pubblicati nel volume collettivo Der Positivismusstreit in der deutschen Soziologie, 1969).
Del 1974 sono sia la Autobiography (tr.it. La ricerca non ha fine) sia le Replies to My Critics, apparse
l’una e l’altre in The Philosophy of Karl Popper, a cura di Paul Arthur Schilpp. In collaborazione con John
Carew Eccles, Popper ha pubblicato nel 1977 il volume The Self and Its Brain (L’io e il suo cervello). Nel
1984 è apparsa una raccolta di saggi dal titolo: Auf der Suche nach einer besseren Welt (Alla ricerca di un
mondo migliore); nel 1994 ha visto la luce un’altra raccolta di saggi Alles Leben ist Problemlösen (Tutta la
vita è risolvere problemi). Postumo nel 1998, è apparso il volume The World of Parmenides (Il mondo di
Parmenide). Numerosi i suoi contributi in atti di convegni e simposi.
Professore emerito della London School of Economics, membro della Royal Society, Sir dal 1965,
visiting Professor in molte università straniere, Popper si è spento il 12 settembre 1994. Le sue opere
sono tradotte in più di venti lingue.

Il fallibilismo non è altro che il non-sapere socratico

La critica all’induttivismo («non esiste qualcosa come l’induzione») e all’osservativismo


(nel senso che la scienza non comincia con l’osservazione, ma da problemi, e che non si
dà osservazione se non «imbrattata» di teoria); la critica al neopositivistico principio di
verificazione (che è un principio di significanza tendente a demarcare le proposizioni
sensate da quelle insensate della metafisica); la proposta della falsificabilità delle teorie,
come criterio di demarcazione tra scienza empirica e non-scienza; l’asimmetria logica tra
conferma e smentita di una teoria; la distinzione tra falsificazione logica (ingenua e
definitiva) di una teoria e falsificazione metodologica (sofisticata e non definitiva, perché
potrebbe essere falsa non tanto la teoria sotto controllo quanto piuttosto qualche ipotesi
ausiliaria o errati gli stessi asserti-di-base in contraddizione con qualche conseguenza della
teoria), e rifiuto di una teoria da parte della comunità scientifica; l’affermazione che la
base empirica della scienza non è «roccia», vale a dire che le proposizioni di osservazione
o «protocolli» sono anch’essi smentibili; l’accettazione, nella linea di Alfred Tarski, della
definizione di verità come corrispondenza con i fatti, insieme al risultato che non siamo in
possesso di un «criterio di verità»; l’idea di progresso della scienza come aumento di
verosimiglianza (o verisimilitudine) delle teorie (e l’ammissione delle critiche all’idea di
verosimiglianza con le conseguenti correzioni); l’affermazione della sensatezza delle
teorie metafisiche e della razionalità delle teorie metafisiche criticabili; la rilevanza dei
programmi di ricerca metafisici per lo sviluppo della scienza; la difesa del realismo (in
contrapposizione all’idealismo) e dell’indeterminismo («tutti gli orologi sono nuvole»),
della creatività della mente umana e dell’«apertura» dell’universo – nel senso che «c’è del
nuovo sotto il sole» e «il futuro non sarà come il passato»; l’interpretazione della
probabilità in termini di «propensioni»; le argomentazioni critiche contro l’interpretazione
soggettivistica della fisica quantistica; la distinzione tra Mondo 1 (il mondo degli oggetti
fisici), Mondo 2 (il mondo della mente umana) e Mondo 3 (il mondo dei problemi e delle
teorie scientifiche, delle opere d’arte e delle istituzioni); l’idea che il cervello non spiega la
mente e quindi la critica del riduzionismo del mentale al fisico; l’inconsistenza di tutte
quelle filosofie della storia (raccolte da Popper sotto il concetto di «storicismo») dove si
presume di aver colto la legge o le leggi di sviluppo dell’intera storia umana – e quindi il
rifiuto del fatalismo e del determinismo della storia; la presa di posizione, nelle scienze
sociali, a favore dell’individualismo metodologico (esistono solo individui, e quel che non
esiste è la «società») e contro la reificazione dei concetti collettivi praticata dal
collettivismo metodologico; la dimostrazione dell’insostenibilità dell’olismo, cioè della
pretesa di poter conoscere il «tutto» della società; l’analisi delle conseguenze
inintenzionali delle azioni umane intenzionali quale compito principale dello scienziato
sociale – sono questi i nuclei teorici di fondo dell’epistemologia popperiana. Dunque:
concezione evolutiva della scienza, in cui le teorie inventate per risolvere i problemi
vengono selezionate attraverso il meccanismo della prova: «un processo di natura
darwiniana», dove si impara dagli errori commessi, individuati ed eliminati con la
conseguente proposta di teorie migliori. Concezione evolutiva e fallibilista della scienza:
nella scienza niente vi è di certo, né gli asserti universali né quelli particolari. Il vero
razionalista, per Popper, sarà sempre consapevole di quanto poco sa – è una persona che
non crede che egli stesso o altri siano in possesso di verità ultime e definitive, di
conoscenze «essenziali», non bisognose di ulteriori spiegazioni. Il razionalista autentico
«crede, piuttosto, che solo la discussione critica ci possa aiutare a discernere, nel campo
delle idee, il grano dalla pula». In altri termini,
il fallibilismo non è nient’altro che il non-sapere socratico.
È così, allora, che si comprende che
Quando siamo un razionalista è semplicemente una persona a
razionali cui importa più di imparare che di avere ragione,
che è pronto ad imparare da altri, non
semplicemente accettando l’opinione degli altri,
ma piuttosto lasciando volentieri criticare le proprie idee da altri e criticando
volentieri le idee altrui.
Realista, indeterminista e fallibilista, Popper ha anche difeso l’idea che non esistono due o
più metodi nella ricerca scientifica, per esempio un metodo per le scienze naturali e un
diverso metodo per le scienze umane. Il metodo della ricerca, a suo avviso, è unico:
Il metodo scientifico La mia concezione del metodo della scienza è
consiste in tre semplicemente questa: esso sistematizza il
passaggi: problemi, metodo prescientifico dell’imparare dai nostri
teorie, critiche errori: lo sistematizza grazie allo strumento che
si chiama discussione critica. Tutta la mia
concezione del metodo scientifico si può
riassumere dicendo che esso consiste di questi tre passi: 1) inciampiamo in qualche
problema; 2) tentiamo di risolverlo, per esempio proponendo qualche nuova teoria;
3) impariamo dai nostri sbagli, specialmente da quelli che ci sono resi presenti dalla
discussione critica dei nostri tentativi di risoluzione. O, per dirla in tre parole:
problemi – teorie – critiche. Credo che in queste tre parole, si possa riassumere tutto
quanto il modo di procedere della scienza razionale.

Sono fuori causa sia l’induzione per ripetizione sia l’induzione per eliminazione

Già nelle prime pagine della Logica della scoperta scientifica, Popper rileva che, secondo
un punto di vista largamente accettato, le scienze empiriche sarebbero caratterizzate dal
fatto di usare metodi induttivi – vale a dire inferenze che procederebbero da asserzioni
singolari ad asserzioni universali. Senonché, egli osserva,
Non sono possibili da un punto di vista logico, è tutt’altro che ovvio
inferenze logiche che si sia giustificati nell’inferire asserzioni
da asserzioni universali da asserzioni singolari, per quanto
singolari ad numerose siano queste ultime; infatti qualsiasi
asserzioni conclusione tratta in questo modo può sempre
universali rivelarsi falsa: per quanto numerosi siano i casi
di cigni bianchi che possiamo aver osservato, ciò
non giustifica la conclusione che tutti i cigni sono
bianchi.
Per Popper, in breve, la credenza che noi facciamo uso dell’induzione è semplicemente un
errore, una specie di illusione ottica:
l’induzione non esiste, e la concezione opposta è un errore bell’e buono.
Nel passato il termine «induzione» è stato usato in due accezioni principali: a) induzione
per enumerazione; e b) induzione per eliminazione. La mancanza di validità
dell’induzione per enumerazione, dice Popper, è ovvia:
Perché non regge Nessun numero di cigni bianchi riesce a stabilire
l’induzione per che tutti i cigni sono bianchi (o che la probabilità
ripetizione di trovare un cigno che non sia bianco è piccola).
Allo stesso modo, per quanti spettri di atomi
d’idrogeno osserviamo non potremo mai stabilire
che tutti gli atomi d’idrogeno emettono spettri dello stesso genere […]. Dunque
l’induzione per enumerazione è fuori causa: non può fondare nulla.
D’altro canto i sostenitori dell’induzione per eliminazione, come Bacone e Mill,
credevano che, eliminando tutte le teorie false, si potesse far valere quella vera; ma essi
non si rendevano conto che
il numero delle teorie rivali è sempre infinito, anche se, di regola, in ogni momento
particolare possiamo prendere in considerazione un numero finito di teorie.
È per ragioni logiche, pertanto, che Popper dichiara fuori causa sia l’induzione per
ripetizione sia l’induzione per eliminazione.
Il problema dell’induzione è «il problema di Hume». E fu proprio attraverso Hume, che
Popper si accostò alla questione dell’induzione accettando prontamente la tesi humiana
secondo la quale l’induzione non può essere giustificata logicamente. «La critica humiana
dell’inferenza induttiva – afferma Popper in Congetture e confutazioni – mi parve chiara e
decisiva.» E, tuttavia, egli respinge la spiegazione psicologica che Hume offre
dell’induzione in termini di abitudine. Per Hume, la nostra abitudine di credere in leggi è il
prodotto della frequente ripetizione. Secondo Popper, però, le cose stanno ben
diversamente, giacché la ripetizione non genera una aspettativa consapevole: essa prende
piuttosto l’avvio da una credenza consapevole. In breve, la soluzione di Hume è errata
perché le abitudini non traggono origine dalla ripetizione:
L’abitudine stessa di camminare, di parlare, o di mangiare a certe ore, ha inizio
prima che la ripetizione possa svolgervi qualsiasi parte.
Inoltre, l’idea centrale della dottrina di Hume consiste nella ripetizione, basata sulla
similarità o somiglianza di cose di una certa specie. Ma questo sta a dirci a chiare lettere
che,
per ragioni logiche, deve esserci sempre un punto di vista – un sistema di
aspettazioni, anticipazioni, assunzioni, o interessi – prima che possa darci una
qualsiasi ripetizione; e questo punto di vista, di conseguenza, non può essere
semplicemente il risultato della ripetizione.
Legata alla teoria induttivistica è la credenza che sia possibile partire da delle osservazioni
pure, incontaminate dalla teoria, che si presenterebbero, dunque, a una mente priva di
pregiudizi. Le osservazioni pure, cioè libere da teorie, e la mente come tabula rasa, simile
a una lavagna vuota o a un foglio bianco, sono «miti, false storie, invenzioni di filosofi».
Sbagliano coloro che pensano che le osservazioni debbano precedere le aspettazioni. Idea,
questa, che Popper cerca di illustrare usando i suoi uditori (o lettori) come cavie:
Il mio esperimento consiste nel chiedervi di osservare, qui e ora. Spero che voi tutti
stiate cooperando, e osserviate! Ma temo che qualcuno di voi, invece di osservare,
provi il forte impulso a chiedermi: «Che cosa vuoi che osservi?». Se questa è la
vostra risposta, allora il mio esperimento è riuscito. Infatti, quello che sto tentando
di mettere in chiaro è che, allo scopo di osservare, dobbiamo avere in mente una
questione ben definita, che possiamo essere in grado di decidere mediante
l’osservazione. Charles Darwin lo sapeva, quando scrisse: «Com’è strano che
nessuno veda che ogni osservazione non può non essere che pro o contro qualche
teoria».
Ogni nostra osservazione è imbrattata di teoria. Le osservazioni e gli esperimenti sono il
tribunale dell’immaginazione teorica. La mente purgata da ogni teoria, così come voleva
Bacone, «non sarà una mente pura: sarà solo una mente vuota».

La falsificabilità quale criterio di demarcazione tra scienza e non-scienza

Se il problema dell’induzione è il «problema di Hume», il problema della demarcazione è


– scrive Popper nel I due problemi fondamentali della teoria della conoscenza – il
«problema di Kant», così formulabile:
Quale procedimento caratterizza la scienza della natura, a fronte della metafisica?
I neopositivisti, tramite il loro principio di verificazione, tentarono di demarcare tra
linguaggio sensato (delle scienze empiriche) e linguaggio insensato (della metafisica).
Senonché, afferma Popper, «i positivisti, nella loro ansia di distruggere la metafisica,
distruggono, con essa, la scienza della natura. Infatti le leggi scientifiche non possono, a
loro volta, essere ridotte a osservazioni empiriche elementari». In breve, quel che i
neopositivisti vogliono non è tanto una efficace demarcazione, quanto piuttosto lo
scalzamento e l’annichilimento della metafisica. In fondo, essi non fanno altro che tentare
di eliminare la metafisica lanciandole improperi.
Diversamente dai neopositivisti, Popper prende un’altra strada: fa distinzione non tra
linguaggio sensato e linguaggio insensato, ma tra scienza empirica e non-scienza. In
realtà, come risulta da una lettera inviata nel 1932 al direttore della rivista «Erkenntnis»,
Popper, non appena sentì parlare del nuovo criterio di verificabilità del significato
elaborato dal Circolo, gli contrappose il suo criterio di falsificabilità: «un criterio di
demarcazione destinato a demarcare sistemi di asserzioni scientifiche da sistemi
perfettamente significanti di asserzioni metafisiche». E che le asserzioni metafisiche siano
significanti (e non cumuli di rumori o semplici grida dell’anima) si può vedere – annotava
Popper – considerando la questione da un punto di vista storico, giacché
la metafisica è la fonte da cui rampollano le teorie delle scienze empiriche.
Stabilita l’inconsistenza del principio di verificazione e appurato che le teorie metafisiche
sono perfettamente significanti, Popper avanza l’idea di falsificabilità di una teoria quale
criterio di demarcazione tra scienza e non-scienza, come «una proposta per un accordo o
convenzione», la quale sarà valutata in base alla fertilità delle sue conseguenze. Ecco,
dunque, la sua proposta:
È scientifica solo Io ammetterò certamente come empirico, o
una teoria che può scientifico, soltanto un sistema che possa essere
venir controllata controllato dall’esperienza. Queste
dall’esperienza considerazioni suggeriscono che, come criterio di
demarcazione, non si deve prendere la
verificabilità, ma la falsificabilità di un sistema.
In altre parole: da un sistema scientifico non esigerò che sia capace di essere scelto,
in senso positivo, una volta per tutte; ma esigerò che la sua forma logica sia tale che
possa essere messo in evidenza, per mezzo di controlli empirici, in senso negativo: un
sistema empirico deve poter essere confutato dall’esperienza. Così l’asserzione:
«Domani qui pioverà o non pioverà» non sarà considerata un’asserzione empirica,
semplicemente perché non può essere confutata, mentre l’asserzione «qui domani
pioverà» sarà considerata empirica.
E qui va sottolineato che la falsificabilità, in quanto criterio di demarcazione, è una
questione puramente logica (Introduzione del 1982 al Poscritto alla logica della scoperta
scientifica, I):
La falsificabilità ha a che fare soltanto con la struttura logica delle asserzioni e delle
classi di asserzioni. E non ha niente a che fare con la questione della possibilità che
certi possibili risultati sperimentali vengano o meno accettati come falsificazioni.
Ciò nel senso che
un’asserzione o una teoria è […] falsificabile se e solo se esiste un falsificatore
potenziale, almeno un possibile asserto di base che entri logicamente in conflitto con
essa. È importante non pretendere che l’asserto di base in questione sia vero. La
classe degli asserti di base è intesa in modo che un asserto di base descriva un
evento logicamente possibile la cui osservabilità sia logicamente possibile.
In termini meno tecnici: quando parliamo di falsificabilità di un sistema stiamo parlando
di un sistema o di una teoria che è possibile controllare, cioè falsificare, a opera di
esperimenti e osservazioni. E la falsificabilità di una teoria – quale criterio di
demarcazione tra scienza e non-scienza – è una proposta che si basa sull’asimmetria tra
verificabilità e falsificabilità, asimmetria che risulta dalla forma logica delle asserzioni
universali:
[Le asserzioni universali] non possono mai essere derivate da asserzioni singolari,
ma possono venir contraddette da asserzioni singolari.
Da ciò consegue che
Il modus tollens è possibile, per mezzo di inferenze puramente
come organo della deduttive (con l’aiuto del modus tollens della
critica logica classica), concludere dalla verità di
asserzioni singolari alla falsità di asserzioni
universali. Un tale ragionamento, che conclude
alla falsità di asserzioni universali, è il solo tipo di inferenza strettamente deduttiva
che proceda, per così dire, nella «direzione induttiva»; cioè da asserzioni singolari
ad asserzioni universali.
Una teoria universale, quindi, non può venir verificata, mentre è possibile falsificarla:
Un insieme di asserti osservativi singolari («asserti di base» […]) può falsificare o
confutare a volte una legge universale; ma non può assolutamente verificare una
legge, nel senso di dimostrarla.
Problemi logici e metodologici connessi ai controlli di una teoria

Nell’orizzonte della soluzione tanto del «problema di Hume» quanto del «problema di
Kant» diventano comprensibili le seguenti considerazioni:
a la falsificazione logica di una teoria va distinta dalla falsificazione metodologica: la
prima è un processo ingenuo e definitivo; la seconda, invece, è un procedimento
sofisticato e non definitivo;
b non è definitivo, poiché potrebbe essere falsa non tanto la teoria sotto controllo, quanto
piuttosto una ipotesi ausiliaria o qualche condizione iniziale o qualche asserto-di-base;
c quindi anche la falsificazione di una teoria resta fallibile;
d come non incontrovertibile è la base empirica della scienza – in quanto ogni asserzione-
base può venire a sua volta controllata con l’aiuto di altre asserzioni e teorie;
e ciò per la ragione che non sono possibili asserzioni in grado di ridarci in termini neutrali
e definitivi un’esperienza:
È incerta anche la tutti i termini sono in qualche misura teorici,
base empirica della anche se alcuni sono più teorici di altri, [per cui]
scienza l’usuale distinzione tra «termini osservativi» (o
«termini non-teorici») e termini teorici è erronea.

Non c’è un linguaggio libero da teorie (theory-


free) per descrivere i dati, poiché i miti (vale a dire le teorie primitive) affiorano
assieme al linguaggio. […] Non ci sono cose come le percezioni o dati di senso che
non siano costruiti su delle teorie (o su delle aspettazioni, che sono i precedenti
biologici delle teorie formulate linguisticamente). I «dati», pertanto, non sono la
base delle teorie, né garantiscono per le teorie: essi non sono più sicuri di qualsiasi
altra delle nostre teorie o «pregiudizi», ma, se mai, lo sono ancor meno.
f i controlli di una teoria seguono, afferma Popper, quattro differenti linee: si controlla la
coerenza interna della teoria; si guarda se la teoria ha carattere empirico o è di natura
tautologica; si confronta la nuova teoria con le altre teorie, allo scopo «di determinare se la
teoria costituisce un progresso scientifico, nel caso sopravviva ai vari controlli a cui
l’abbiamo sottoposta»; infine «c’è il controllo della teoria mediante le applicazioni
empiriche delle conclusioni che possono essere derivate da essa»;
g Quine –nei Due dogmi dell’empirismo – ha ragione quando sostiene che «nessuna
proposizione è immune da correzione»; ma ha torto, secondo Popper, allorché afferma che
«le nostre proposizioni sul mondo esterno si sottopongono al tribunale dell’esperienza
sensibile non individualmente, ma solo in modo solidale». È questa l’idea di controllo
olistico cui sarebbe connessa l’altra idea relativa all’impossibilità degli experimenta
crucis. Senonché, una rivoluzione totale del nostro sapere non è logicamente possibile,
perché per falsificare l’intero sistema del sapere avremmo in ogni caso bisogno di un
seppur minimo pezzo di sapere accettato momentaneamente per buono e indipendente dal
sistema sotto controllo:
la critica non parte mai da nulla, anche se tutti i pezzi di partenza possono essere
messi in discussione, uno per volta, nel corso
Critica della del dibattito critico. Ma anche se ciascuno dei
concezione olistica presupposti può essere messo in discussione, è
di Duhem e Quine assolutamente impossibile metterli in discussione
tutti in una volta. Ogni critica, dunque, deve
essere condotta pezzo per pezzo (contrariamente
a quanto sostiene la concezione olistica di Duhem e Quine).
h il criterio di demarcazione costituito dall’idea di falsificabilità fattuale di una teoria non
è una ipotesi empirico-scientifica, quindi non è confutabile empiricamente: si tratta «di
una tesi filosofica, ossia d’una tesi della metascienza»; ma non è neppure un dogma; è una
proposta criticabile (e che è stata criticata da più parti) – «una proposta che ha dato buona
prova di sé nella discussione seria». È un criterio che «non è stato ricavato
dall’osservazione del fare e disfare degli scienziati» e nemmeno dallo studio della storia
della scienza; e, tuttavia, «ci aiuta a far storia della scienza, perché ci dice che cosa
dobbiamo considerare e che cosa non dobbiamo considerare come appartenente alla storia
della scienza empirica».
i il criterio di falsificabilità ha la sua genesi nella soluzione che il giovane Popper cercò di
dare, nel 1919, al problema di «stabilire una distinzione fra scienza e pseudoscienza, pur
sapendo bene che la scienza spesso sbaglia e che la pseudoscienza può talora, per caso,
trovare la verità».
E fu il confronto tra la teoria della relatività di Einstein, da una parte, e la teoria marxista
della storia, la psicoanalisi di Freud e la psicologia individuale di Adler, dall’altra, a
indurre Popper a constatare che mentre le teorie di Marx, Freud e Adler erano
inconfutabili, non essendo concepibile nessun fatto che le potesse contraddire, la teoria di
Einstein, confermata proprio nel 1919 da risultati della spedizione di Eddington, aveva
invece rischiato di venir smentita, era cioè falsificabile. Da qui, una serie di
considerazioni:
1 È facile ottenere conferme o verifiche, se quel che cerchiamo sono conferme.
2 Le conferme hanno valore solo se sono il risultato di previsioni rischiose.
3 Ogni teoria scientifica è una «proibizione»; e, più preclude, migliore è.
4 L’inconfutabilità di una teoria non è (come spesso si crede) un pregio, bensì un difetto.
5 «La controllabilità coincide con la falsificabilità»; e vi sono gradi di controllabilità.
6 Le ipotesi ad hoc o le reinterpretazioni ad hoc della teoria sono sempre possibili:
salvano la teoria dalla confutazione distruggendone, o almeno pregiudicandone, lo status
scientifico. In estrema sintesi:
il criterio dello stato scientifico di una teoria è la sua falsificabilità, confutabilità, o
controllabilità.

Un unico metodo nella ricerca scientifica

Nella Prefazione (1956) al Poscritto alla logica della ricerca scientifica, Popper fa
presente che non esiste alcun metodo scientifico in nessuno di questi tre sensi:
In che senso non 1. Non c’è alcun metodo per scoprire una teoria
esiste alcun scientifica. 2. Non c’è alcun metodo per accertare
metodo scientifico la verità di una ipotesi scientifica, cioè nessun
metodo di verificazione. 3. Non c’è alcun metodo
per accertare se un’ipotesi è «probabile» o
«probabilmente vera».
Non esiste un metodo per scoprire una teoria scientifica, nel senso che non c’è una
procedura di routine o meccanica per scoprire una nuova teoria. È netta la distinzione
tracciata da Popper nella Logica della scoperta scientifica tra la psicologia e la logica
della ricerca:
Ogni scoperta contiene un «elemento irrazionale» o «un’intuizione creativa» nel
senso di Bergson.
D’altra parte, non c’è neppure nessun metodo di verificazione, se per veri-ficazione si
intende una procedura capace di accertare, dimostrare la verità di una teoria – in grado,
cioè, di farla vera, di stabilirne la certa verità. Non siamo in possesso di un criterio di
verità – un argomento, questo, su cui Popper si dichiara completamente d’accordo con
Alfred Tarski.
Tutta la conoscenza umana rimane fallibile, congetturale. Non esiste nessuna
giustificazione, compresa, beninteso, nessuna giustificazione definitiva di una
confutazione.
E, da ultimo, non c’è un metodo per accertare se una teoria è «probabile» o
«probabilmente vera». E ciò perché
Non esiste un ogni ipotesi universale h va talmente al di là di
metodo per qualunque evidenza empirica e, che la sua
accertare se una probabilità p (h, e) rimarrà sempre pari a zero,
teoria è perché l’ipotesi universale afferma qualcosa
probabilmente vera relativamente a un numero infinito di casi, mentre
il numero dei casi osservati non può che essere
finito.
Che nei tre sensi ora precisati non esista nessun metodo scientifico, non significa, per
Popper, che non esista metodo scientifico. Ribadiamo qui la sua proposta, già citata:
La mia concezione del metodo della scienza è semplicemente questa: esso
sistematizza il metodo prescientifico dell’imparare
I tre passaggi dai nostri errori: lo sistematizza grazie allo
essenziali del strumento che si chiama discussione critica. Tutta
metodo scientifico la mia concezione del metodo scientifico si può
riassumere dicendo che esso consiste di questi tre
passi: 1) inciampiamo in qualche problema; 2)
tentiamo di risolverlo, per esempio proponendo qualche nuova teoria; 3) impariamo
dai nostri sbagli, specialmente da quelli che ci sono resi presenti dalla discussione
critica dei nostri tentativi di risoluzione. O, per dirla in tre parole: problemi – teorie
– critiche. Credo che in queste tre parole problemi – teorie – critiche, si possa
riassumere tutto quanto il metodo di procedere della scienza razionale.
La ricerca scientifica avanza per congetture e confutazioni e «progredisce da problemi ad
altri problemi di profondità sempre crescente». E il metodo della ricerca è unico, vale per
tutta la scienza razionale. Per cui dal punto di vista metodologico la distinzione tra scienze
fisico-naturali e discipline umanistiche è un errore:
Metodologicamente, Elaborare la differenza tra scienza e discipline
non c’è differenza umanistiche è stato a lungo una moda ed è
tra scienza e diventato noioso. Il metodo di risoluzione dei
discipline problemi, il metodo delle congetture e
umanistiche confutazioni sono praticati da entrambe. È
praticato nella ricostruzione di un testo
danneggiato, come nella costruzione di una
teoria della radioattività.
Parlando di Gadamer, Popper ha sostenuto (Autointerpretazione filosofica e polemica
contro i dialettici, 1977):
Io ho mostrato che l’interpretazione dei testi (ermeneutica) lavora con metodi
schiettamente scientifici.
E inoltre (La logica delle scienze sociali, 1962):
Il metodo delle scienze sociali, come anche quello delle scienze naturali, consiste
nella sperimentazione di tentativi di soluzione per i loro problemi.

Problemi logici connessi al progresso della scienza

a Le nostre teorie sono e restano fallibili. Di conseguenza l’individuazione dell’errore e la


sua eliminazione è un punto cardine della ricerca scientifica. Scrive Popper ne La teoria
del pensiero oggettivo:
Gli errori sono Evitare errori è un ideale meschino: se non
inevitabili, quel che osiamo affrontare problemi che siano così difficili
conta è imparare da rendere l’errore quasi inevitabile, non vi sarà
da essi allora sviluppo della conoscenza. In effetti, è
dalle nostre teorie più ardite, incluse quelle che
sono erronee, che noi impariamo di più. Nessuno
può evitare di fare errori; la cosa grande è imparare da essi.
Questa fondamentale considerazione mostra, molto semplicemente, che
dobbiamo andare alla ricerca dei nostri errori o, in altri termini, […] dobbiamo
cercare di criticare le nostre teorie. La critica è ovviamente il solo nesso che abbiamo
per scoprire i nostri errori e imparare da essi in maniera sistematica.
b Noi discutiamo criticamente le nostre teorie:
Sottoponiamo [le nostre teorie] a controlli ed eliminiamo quelle teorie che
giudichiamo essere meno valide per risolvere i problemi che desideriamo risolvere:
in questo modo solo le teorie migliori, quelle che sono le più idonee, sopravvivono
nella lotta. Questo è il modo in cui cresce la scienza.
Ciò equivale a dire che lo sviluppo della nostra conoscenza è il risultato di un processo
strettamente rassomigliante a quello chiamato da Darwin «selezione naturale» – vale a
dire: la selezione naturale delle ipotesi.
Lo sviluppo La nostra conoscenza consiste, in ogni momento,
darwiniano delle di quelle ipotesi che hanno dimostrato il loro
teorie scientifiche (relativo) adattamento sopravvivendo fino a ora
nella lotta per l’esistenza; una lotta
concorrenziale che elimina quelle ipotesi che
sono inadatte.
In breve: lo sviluppo della nostra conoscenza è, secondo Popper, uno «sviluppo
darwiniano» delle idee. È questo il nucleo teorico dell’epistemologia evoluzionistica.
Usando «P» per problema, «TS» per tentativo di soluzione, «EE» per eliminazione
dell’errore, è possibile raffigurare lo sviluppo della scienza tramite il seguente schema: P
→ TS → EE → P2, dove il secondo problema P2 è diverso dal primo problema P1.
Tuttavia, data in linea generale la molteplicità dei tentativi di soluzione, uno schema più
adeguato risulta essere il seguente:

c Per congetture e confutazioni si avanza verso teorie migliori, più potenti, più ricche di
contenuto informativo. Da simile quasi ovvia constatazione Popper fa discendere una
conclusione in qualche modo «paradossale», in quanto se una teoria è migliore di un’altra
qualora abbia maggiore contenuto informativo, allora, migliore di un’altra è una teoria
meno probabile. Sia a l’assunto «venerdì pioverà», b l’assunto «sabato sarà bello», e ab
l’assunto «venerdì pioverà e sabato sarà bello». È ovvio che il contenuto informativo
dell’asserto costituito dalla congiunzione ab eccederà quello delle singole componenti a e
b. Ma è anche evidente che la probabilità di ab (cioè la probabilità che ab sia vera) sarà
inferiore a quella di ciascuna delle sue componenti. In breve:
Karl Popper

se […] il nostro scopo è l’avanzamento, o l’accrescersi, della scienza, un’alta


probabilità (nel senso del calcolo delle probabilità) non può essere parimenti il
nostro proposito: questi due propositi sono incompatibili.
d Alfred Tarski ha riabilitato l’idea di verità come accordo tra teorie e fatti; ma insieme ha
affermato che noi non possediamo un criterio di verità. Questo perché le teorie alternative
a una teoria T sono in linea di principio infinite, e perché, date le infinite conseguenze di
una teoria e dato il numero comunque sempre limitato dei controlli effettivi, non
potremmo mai sapere se i controlli successivi (a quelli di volta in volta eseguiti)
confermeranno o no la teoria (Tarski, La concezione semantica della verità e i fondamenti
della semantica, 1952):
Non conosciamo e abbiamo molto poche possibilità di scoprire un criterio di verità
che ci consenta di dimostrare che nessun enunciato di una teoria è falso.
Tali risultati, insieme alla consapevolezza dello sterminato numero di teorie falsificate
offertoci dalla storia della scienza, hanno fatto sì che Popper affrontasse, da una
prospettiva logica, il problema del progresso della scienza con la proposta dell’idea di
verosimiglianza o verisimilitudine al fine di valutare la progressività di una teoria T2
(falsa) nei confronti di un’altra teoria T1 (anch’essa falsa). Assumendo che il contenuto di
verità e il contenuto di falsità di due teorie t1 e t2 siano paragonabili, possiamo dire che t2 è
più verosimile, più vicina alla verità, di t1, se e solo se:
1) il contenuto di verità, ma non il contenuto di falsità, di t2 supera quello di t1;
2) il contenuto di falsità di t1, ma non il suo contenuto di verità, supera quello di t2.
Con ciò Popper ha risposto alla domanda su che cosa si intenda allorché si dice che una
teoria t2 è più verosimile di una teoria t1. Domanda, questa, diversa dall’altro
interrogativo: «Come sai che t2 è più verosimile di t1?», interrogativo che comporta una
risposta di tipo congetturale relativa all’eventuale effettiva maggior verosimiglianza di
una teoria t2 nei confronti di una teoria t1.
Nel 1974 Pavel Tichý, John Harris e David Miller dimostrano l’inconsistenza delle
definizioni popperiane di verisimilitudine, in quanto tra due teorie false una non può
essere più vera di un’altra. Questo per la ragione che se in una teoria falsificata aumentano
le conseguenze vere, allora aumentano anche le conseguenze false; e se, sempre in una
teoria falsificata, diminuiscono le conseguenze false, in essa diminuiscono anche le
conseguenze vere. Risultati, questi, che mostrano l’inconsistenza della proposta di Popper,
stando alla quale una teoria (falsificata) diventa più verosimile se aumentano le
conseguenze vere e non quelle false, ovvero se diminuiscono le conseguenze false e non
quelle vere. Popper riconobbe subito il suo errore: «accettai la critica della mia
definizione, pochi minuti dopo che mi fu presentata»; aggiunse, però, che tale errore non
scuoteva minimamente la propria teoria della conoscenza, la quale dal 1933 in avanti «è
gagliardamente cresciuta ed è molto usata dagli scienziati di mestiere» (Introduzione al
Poscritto alla logica della scoperta scientifica, I). L’obiezione, sostiene Popper, viene
superata non parlando più di tutti i problemi che l’una o l’altra teoria potrebbe risolvere,
ma relativizzando il contenuto della teoria «ai nostri problemi rilevanti – quei problemi
che lo scienziato militante considererebbe come rilevanti» (Supplementary Remarks,
1978).
e Cerchiamo teorie, aneliamo alla scoperta di teorie universali, per la ragione che senza
teorie non sono possibili né la spiegazione né la previsione.
La spiegazione causale di fatti Dare una spiegazione causale di un evento
ed eventi non è possibile
senza leggi generali
significa dedurre un’asserzione che lo descrive,
usando come premesse una o più leggi generali,
insieme con alcune asserzioni singolari dette
condizioni iniziali.
In realtà, non possiamo mai parlare di causa ed effetto in modo assoluto, in quanto
un evento è causa di un altro evento, che ne è l’effetto, solo in relazione a qualche
legge universale.
Siamo qui dinanzi al modello di spiegazione nomologico-deduttivo (detto anche «modello
Popper-Hempel») – modello che rende conto anche della natura della previsione: date le
leggi e individuate le cause, si potrà predire il fenomeno che ci interessa. E sempre in base
al modello è possibile distinguere le scienze in:
1) scienze teoretiche o generalizzanti, se abbiamo interesse a controllare una teoria per
vedere se regge agli urti della critica;
2) scienze storiche, se intendiamo spiegare, con l’aiuto di leggi generali, fatti accaduti;
3) scienze applicate, qualora, sempre con l’aiuto di teorie universali, prevediamo fatti.

Quando e perché le teorie filosofiche sono razionali

Ma le cose non si fermano qui, giacché la questione di maggior peso, riguardo alle idee
filosofiche o metafisiche, è se esse siano razionali. In più d’uno scritto Popper è tornato
esplicitamente sul problema: La natura dei problemi filosofici e le loro radici nella
scienza (1952); La critica kantiana e la cosmologia (1954); Lo status della scienza e della
metafisica (1958); La demarcazione tra scienza e metafisica (1955, ma pubblicato nel
1984) – scritti rinvenibili in Congetture e confutazioni; Come io vedo la filosofia (1978),
ristampato in Alla ricerca di un mondo migliore.
Noto è lo scontro, che ebbe luogo al Moral Sciences Club di Cambridge all’inizio
dell’anno accademico 1946-1947, tra Wittgenstein e Popper sulla natura dei problemi e
delle teorie filosofiche. Per Wittgenstein i problemi filosofici non erano altro che
«perplessità linguistiche» bisognose di una «terapia linguistica» in grado di risolverli
dissolvendoli, cioè riducendoli a problemi di altri ambiti, come quello logico, o
matematico, o scientifico eccetera. Per Popper, invece, si danno autentici problemi
filosofici e genuine teorie filosofiche.
Genuini problemi filosofici che «sono radicati in urgenti problemi esterni alla filosofia,
come, per esempio, in matematica, nella cosmologia, in politica o in religione». Problemi
filosofici (su questo o quel senso della storia o su nessun senso della storia; sulla
conoscenza scientifica; sulla verità; sull’unico o più diversi metodi di ricerca; sullo Stato;
sulla possibilità o meno di una giustificazione razionale delle norme etiche; sul
determinismo o l’indeterminismo e così via) che reclamano soluzioni filosofiche
irriducibili alle teorie scientifiche e di fronte alle quali l’unico atteggiamento razionale è
quello critico, il quale in sostanza consiste nel cercare di confutare la nostra stessa
posizione:
Ogni qual volta tentiamo di proporre la soluzione di un problema dovremmo tentare
col massimo accanimento possibile di scalzare la nostra soluzione, anziché di tentare
di difenderla.
Ma come è possibile scalzare teorie filosofiche se esse non sono fattualmente controllabili,
non sono cioè falsificabili? Di fatti, se fossero falsificabili sarebbero scientifiche e non
filosofiche. A questo nevralgico interrogativo Popper risponde ne L’epilogo metafisico del
Poscritto alla logica della scoperta scientifica:
Le teorie Non penso più, come un tempo, che ci sia una
metafisiche, pur differenza fra scienza e metafisica su questo
non essendo importantissimo punto. Ritengo che una teoria
falsificabili, sono metafisica sia simile a una teoria scientifica. È
criticabili senz’altro più vago e inferiore sotto molti altri
aspetti, e la sua non confutabilità, o mancanza di
controllabilità, è il suo maggior difetto. Ma, nella
misura in cui una teoria metafisica può venir razionalmente criticata, dovrei essere
disposto a prendere sul serio la sua implicita rivendicazione a essere considerata,
almeno provvisoriamente, come vera. E, soprattutto, dovrei essere disposto a
valutarla attraverso una stima di questa rivendicazione – considerando dapprima il
suo interesse teorico e solo secondariamente la sua utilità pratica (in quanto distinta
dalla sua fecondità come programma di ricerca). L’utilità o inutilità pratica si
possono ritenere importanti soprattutto perché assomigliano a un controllo della
verità – come può spesso darsi in connessione con una teoria scientifica.
La stima della rivendicazione di una teoria filosofica o metafisica a essere considerata
vera, va effettuata «in rapporto alla situazione problematica con cui è collegata»:
Teorie filosofiche Ogni discussione critica di una teoria metafisica
razionali in quanto consisterà, soprattutto, nell’esaminare in che
criticabili misura lo faccia [risolvere problemi] meglio di
altre teorie rivali; se non crei delle difficoltà
maggiori di quelle che intende dissipare; se la
soluzione sia semplice; quanto feconda nel suggerire nuovi problemi e nuove
soluzioni, e se non sarebbe eventualmente possibile confutarla mediante controlli
empirici. Quest’ultimo metodo non è, beninteso, applicabile se la teoria è metafisica.
Ma gli altri metodi possono ben essere applicabili. Ecco perché è possibile la
discussione razionale o critica di alcune teorie metafisiche. (Beninteso, possono
esserci altre teorie metafisiche che non sono suscettibili di discussione razionale).
Dunque: si danno teorie metafisiche che sono razionali; razionali perché criticabili; e
criticabili qualora sia possibile che si scontrino con qualche pezzo di Mondo 3 all’epoca
consolidato e al quale non siamo disposti, all’epoca, a rinunciare – per esempio, una teoria
scientifica, un teorema matematico, un risultato di logica, un’altra teoria metafisica
eccetera. In tal modo, come ha sottolineato anche William Bartley (in Ecologia della
razionalità), la confutabilità o falsificabilità fattuale delle teorie scientifiche è solo un caso
della più ampia razionalità – la quale, appunto, consiste nella falsificabilità delle teorie
scientifiche e nella criticabilità delle teorie metafisiche. E qui va fatto presente che gran
parte del lavoro di Popper è consistito proprio nell’argomentare a supporto di alcune teorie
filosofiche (fallibilismo, realismo, indeterminismo ecc.) e nel criticarne altre
(induttivismo, determinismo, essenzialismo, idealismo, storicismo, marxismo, teoria
cospiratoria della società, olismo, utopismo ecc.).

I grandi temi del Poscritto: realismo e indeterminismo

Il realismo e lo scopo della scienza è il titolo del primo volume del Poscritto. In una
indagine articolata in quattro fasi (logica, metodologica, epistemologica e metafisica),
Popper sottopone di nuovo a una critica serrata l’induttivismo, visto come la fonte
principale del soggettivismo e dell’idealismo; argomenta contro l’interpretazione
soggettiva della probabilità, quando questa viene intesa come uno stato soggettivo di
conoscenza insufficiente; propone la sua interpretazione propensionale della probabilità, il
cui assunto di fondo – scrive Popper in Un universo di propensioni – è che
le propensioni non sono semplici possibilità, bensì realtà fisiche, reali come le forze o
i campi di forze. E viceversa: le forze sono propensioni. […] Le propensioni non
dovrebbero venir considerate come una proprietà inerente all’oggetto, come un dato
o una moneta da un penny, bensì come inerenti a una situazione (della quale
naturalmente l’oggetto fa parte).
L’universo aperto. Un argomento per l’indeterminismo è il secondo volume del Poscritto,
dove Popper respinge sia il determinismo «metafisico» sia quello «scientifico» e mostra
come la fisica classica non presupponga né implichi il determinismo; e dove espone le sue
ragioni a favore dell’indeterminismo.
Argomenti a favore La ragione principale della mia convinzione è
dell’indeterminismo l’argomento intuitivo […] che la creazione di una
nuova opera, come la sinfonia in Sol minore di
Mozart, non può essere prevista, in tutti i suoi
dettagli, da un fisico, o da un fisiologo, che studi minuziosamente il corpo di Mozart
– specialmente il suo cervello – e il suo ambiente fisico. La concezione opposta
sembra intuitivamente assurda; in ogni caso, sembra ovvio che sarebbe
estremamente difficile produrre argomenti ragionevoli a suo favore, e che
attualmente non esiste nulla a suo sostegno, all’infuori di un pregiudizio semi-
religioso, o del pregiudizio che l’onniscienza della scienza si avvicini in un certo
qual modo, anche se soltanto in teoria, all’onniscienza divina.
Più in particolare: il carattere approssimato di tutta la conoscenza umana; l’asimmetria tra
passato e futuro («il passato è completamente determinato da ciò che è accaduto», mentre
«tutta la vita, tutte le nostre attività, sono assorbite dai tentativi di influenzare il futuro»);
l’imprevedibile crescita della conoscenza umana: sono questi alcuni degli argomenti con
cui Popper sottopone a critica il determinismo – teoria che, peraltro, risulta inconsistente
giacché se il determinismo fosse vero noi non potremmo sapere in modo razionale che è
vero; saremmo semplicemente costretti ad accettarlo. La sua critica al determinismo viene
considerata da Popper come «una sorta di prolegomeno al problema della libertà e
creatività umana e lo legittima fisicamente e cosmologicamente in un modo che non
dipende da analisi verbali».
La teoria dei quanti e lo scisma della fisica costituisce il terzo volume del Poscritto. In
esso «Popper porta il proprio attacco giusto al cuore del dibattito in corso nella fisica
quantistica. In un periodo in cui molti fisici di provata serietà sono induttivisti,
soggettivisti, positi visti, strumentalisti – e tentano di fondare tali posizioni nella fisica –
Popper propone un’interpretazione della fisica, e in verità un’intera cosmologia, che è
deduttivistica, realistica, antipositivistica e antistrumentalistica» (W. Bartley).
In realtà, in questo terzo volume del Poscritto, Popper riesamina e di nuovo critica le tesi
utilizzate dai sostenitori della concezione idealistica della fisica quantistica; e, nella
persuasione che i problemi di interpretazione della meccanica quantistica siano da
ricondurre a problemi connessi all’interpretazione del calcolo delle probabilità, ripropone
l’interpretazione propensionale della probabilità, in una esauriente articolazione delle sue
critiche alle interpretazioni dominanti della teoria dei quanti. Il messaggio del suo libro
Popper lo vede nel realismo:
Argomenti a favore Esso ha un legame con l’oggettività, anche nella
del realismo teoria della probabilità. Questo legame produce
l’interpretazione propensionale. Il realismo è
connesso con il razionalismo, con la realtà della
mente umana, della creatività e della sofferenza umana.

L’io non si riduce al suo cervello

Popper pubblica, nel 1977, insieme a John Carew Eccles, L’io e il suo cervello, dove
contro la posizione riduzionistica e materialistica difende una concezione interazionistica,
stando alla quale esistono sia gli stati mentali sia gli stati fisici che interagiscono.
Ripropone, insomma, una specie di dualismo cartesiano, ristabilendo, all’interno di una
concezione evolutiva, l’esistenza della coscienza e dell’autocoscienza.
Per Popper, l’universo o, meglio, la sua evoluzione è creativa o emergente. E, riassumendo
in uno schema ipersemplificato quelli che possono essere alcuni dei più significativi eventi
di tale evoluzione creativa, Popper distingue tre Mondi: il Mondo 1, il Mondo 2 e il
Mondo 3:
6 Opere d’arte e di scienza
MONDO 3 (compresa la tecnologia)

(I prodotti della mente umana) 5 Il linguaggio umano.
Teorie dell’io e della morte

MONDO 2 4 Coscienza di sé e della morte
(Il mondo delle esperienze 3 Sensibilità (coscienza
soggettive) animale)

2 Organismi viventi
MONDO 1 1 Gli elementi più pesanti:

(Il mondo degli oggetti fisici) liquidi e cristalli
0 Idrogeno ed elio

C’è, dunque, il Mondo 1, l’universo delle entità fisiche. Ed esiste, per Popper, il Mondo 2,
il mondo degli stati mentali, comprendenti gli stati di coscienza, le disposizioni
psicologiche e gli stati inconsci. Ma c’è anche un terzo mondo:
Definizione di Mondo 3 Per Mondo 3 intendo il mondo dei prodotti della
mente umana, come i racconti, i miti esplicativi,
gli strumenti, le teorie scientifiche (sia vere che false), i problemi scientifici, le
istituzioni sociali e le opere d’arte.
E i prodotti del Mondo 3, come le teorie, sono in un certo grado autonomi dagli individui
che li hanno creati. Così, per esempio, la successione dei numeri naturali è una costruzione
umana, tuttavia, sebbene siamo stati noi a crearla, essa crea i suoi propri problemi.
Afferma Popper nel saggio Epistemologia senza soggetto conoscente:
La distinzione tra numeri pari e numeri dispari non è creata da noi; essa è piuttosto una non
intenzionale e inevitabile
conseguenza della nostra creazione. I numeri primi,
L’autonomia del ovviamente, sono in maniera analoga fatti autonomi non
Mondo 3 intenzionali e oggettivi; e nel loro caso è ovvio che ci sono
molti fatti per noi da scoprire: ci sono congetture come
quella di Goldbach.

Considerazioni del genere portano Popper ad affermare l’esistenza di oggetti incorporei


del Mondo 3. E se il comprendere, l’afferrare un oggetto del Mondo 3 è un processo
attivo, «un atto di produzione di quell’oggetto, la sua ri-creazione», questo vuol dire che
c’è interazione tra Mondo 2 e Mondo 3. D’altra parte, se è chiara l’influenza del Mondo 1
sul Mondo 2, è lampante l’influenza del Mondo 3, per esempio delle teorie scientifiche,
sul Mondo 1, pur se occorre badare che gli oggetti del Mondo 3 hanno un effetto sul
Mondo 1 solo attraverso l’intervento umano, vale a dire il Mondo 2.
Tra i prodotti del Mondo 3 fondamentale, nella prospettiva di Popper, è il linguaggio. Il
suo maestro Karl Bühler aveva distinto tre funzioni del linguaggio: 1) la funzione
espressiva; 2) la funzione segnaletica; 3) la funzione descrittiva. Le prime due funzioni
sono comuni agli animali e agli uomini, mentre quella descrittiva è la funzione che,
secondo Bühler, è specifica del linguaggio umano. Tale funzione presuppone le altre due e
centrale è il fatto che con essa si fanno asserzioni che possono essere vere o false. Scrive
Popper ne Il posto della mente umana nella natura (in Tre saggi sulla mente umana):
È la funzione descrittiva del L’invenzione della lingua umana descrittiva, con
linguaggio a renderci umani
la libertà fondamentale di descrivere la realtà
scrupolosamente, oppure di inventare una storia,
è […] la base della mente umana, ed è ciò che ci divide sostanzialmente dai nostri
predecessori.
Alle tre funzioni (espressiva, segnaletica, descrittiva) Popper ha aggiunto la funzione
argomentativa, la quale presuppone quella descrittiva, giacché gli argomenti «criticano le
descrizioni dal punto di vista delle idee regolative della verità, del contenuto e della
verisimilitudine». E se il linguaggio umano è un prodotto dell’inventività della mente
umana, «la mente umana è, a sua volta, il prodotto dei suoi stessi prodotti». Inoltre,
diversamente da Hume, Popper è persuaso che gli io esistono:
Come si impara a Le persone ovviamente esistono e ognuna di esse
diventare persone è un io individuale, con sentimenti, speranze e
timori, dolori e gioie, paure e sogni, che noi
possiamo soltanto supporre, poiché sono noti
solo a colui o a colei che li prova. Esistono gli io; noi però non nasciamo come io:
«dobbiamo imparare a essere degli io». E imparare a diventare persone implica non
soltanto uno stretto contatto con il Mondo 2 delle altre persone, ma anche con il
Mondo 3 del linguaggio e delle teorie.
L’io è ancorato al Mondo 3. Questo per la ragione che il linguaggio umano «ci dà la
possibilità di essere non soltanto soggetti, ma anche oggetti del nostro stesso pensiero
critico, del nostro giudizio critico». Noi, secondo Popper, dobbiamo la nostra umanità e la
nostra razionalità – e dunque il nostro status di io – al linguaggio umano, e quindi agli
altri:
Come io, come esseri umani, noi tutti siamo prodotti del Mondo 3, il quale è a sua
volta, un prodotto di innumerevoli menti umane.
L’idea di Mondo 3 è un punto di forza per la concezione popperiana di evoluzione
creativa. Di fatti, la convinzione di Popper è che «con la comparsa dell’uomo la creatività
dell’universo è diventata evidente»:
l’uomo ha creato un nuovo mondo oggettivo, il mondo dei prodotti della mente
umana […]. L’esistenza di grandi opere d’arte e di scienza indiscutibilmente creative
rivela la creatività dell’uomo e con essa quella dell’universo che ha creato l’uomo.

Miseria dello storicismo

Indeterminista in fisica, Popper lo è anche in ambito storico-sociale, dove, prima nel


saggio Che cos’è la dialettica del 1937, e successivamente in Miseria dello storicismo e
nei due volumi de La società aperta e i suoi nemici, ha preso di mira quelle concezioni
della storia da lui chiamate «storicismo». Precisa Popper in Miseria dello storicismo:
Lo storicista presume di aver Per storicismo intendo una interpretazione del
scoperto le leggi
dell’evoluzione storic
metodo delle scienze sociali che aspiri alla
previsione storica mediante la scoperta dei
«ritmi» o dei «patterns», delle «leggi», delle
«tendenze» che sottostanno all’evoluzione storica.
Sotto il termine storicismo, dunque, Popper raggruppa tutte quelle concezioni della storia
o filosofie della storia – come, per esempio, la dialettica hegeliana o il materialismo
storico-dialettico di Marx ed Engels – nelle quali si presume di aver colto la legge (o le
leggi) che guida (o guidano) lo sviluppo della storia umana nella sua interezza. Le tesi
proposte dagli storicismi vengono distinte da Popper in due differenti gruppi: tesi
antinaturalistiche e tesi pronaturalistiche. Con le prime si sostiene che metodi tipici della
fisica (come la generalizzazione, la sperimentazione, la spiegazione in termini quantitativi,
l’approccio nominalistico) non funzionerebbero nelle scienze sociali, a motivo della
variabilità nel tempo e nello spazio dei fatti sociali, della loro novità intrinseca, della loro
complessità, della divisione in periodi della vita sociale e di un inevitabile approccio
olistico alla comprensione della storia e delle società: «la fisica mira a una spiegazione
causale; la sociologia a comprendere le intenzioni e i significati».
Questo insieme di tesi antinaturalistiche non ha tuttavia impedito la proposta di tesi
pronaturalistiche, nel preciso senso che, comunque, non si rinuncia affatto all’ipotesi di un
elemento comune tra il metodo della fisica e quello delle scienze sociali. Abbagliati
dalal’enorme potere previsivo della teoria di Newton, influenti storicisti hanno sostenuto
che, come per l’astronomia, anche nelle scienze sociali è possibile fare previsioni di lunga
scadenza e ad ampio raggio. E, siccome sono possibili uniformità sociali valide al di fuori
di periodi limitati nello spazio e nel tempo, le sole leggi della società valide
universalmente debbono essere leggi che fanno da anello fra un periodo e l’altro:
«debbono essere leggi di sviluppo storico che determinano la transizione da un periodo
all’altro: ecco ciò che gli storicisti intendono quando dicono che le sole leggi della
sociologia sono leggi storiche». E davanti alla scoperta di leggi o forze responsabili del
mutamento, lo storicista afferma che «la sola attività perfettamente ragionevole che ci è
aperta è quella della levatrice, l’unica che possa essere basata sulla previsione scientifica».
Datti da fare perché accada l’inevitabile: è questo l’insegnamento dello storicista. Una
resa ai fatti.
Alla tesi di fondo dello storicismo Popper oppone la tesi centrale di Miseria dello
storicismo, e cioè che
la credenza diffusa nel determinismo storico e nella possibilità di predire il corso
storico razionalmente o «scientificamente» è una credenza errata.
È errata per la ragione che quelle filosofie che ci vengono incontro con la proposta di
profezie storiche totalizzanti «sono completamente al di fuori della portata del metodo
scientifico». Più in particolare, lo storicismo è insostenibile perché:
1 in esso viene trascurata la distinzione tra predizione scientifica e profezia storica: una
previsione scientifica è un’asserzione condizionata; una profezia storica è un asserto
incondizionato;
2 i suoi sostenitori non si rendono conto del fatto che una tendenza non è una legge: una
tendenza (aumento della popolazione, diminuzione della disoccupazione ecc.) è
un’asserzione singolare spiegabile con delle leggi;
3 esso è indissolubilmente collegato con l’olismo – ed è un grave errore metodologico
pensare di capire la totalità anche del più piccolo e insignificante pezzo di mondo: le
teorie scientifiche ci ridanno e non possono non ridarci se non aspetti selettivi della realtà
– una descrizione scientifica «è sempre necessariamente selettiva»;
4 cade nell’abbaglio del collettivismo consistente nella reificazione di concetti quali
«classe», «società» ecc.: non dobbiamo scambiare le nostre costruzioni teoriche con realtà
sociali – esistono solo individui;
5 è del tutto infondata la pretesa dei suoi sostenitori di poter prevedere il futuro della
società. Tesi quest’ultima di cui Popper offre la seguente dimostrazione:
Perché non si può a) Il corso della storia umana è fortemente
prevedere il futuro influenzato dal sorgere della conoscenza umana
della società […].
b) Noi non possiamo predire, mediante metodi
razionali o scientifici, lo sviluppo futuro della
conoscenza scientifica […].
c) Perciò, non possiamo predire il corso futuro della storia umana.
d) Ciò significa che dobbiamo escludere la possibilità di una storia teorica; cioè di
una scienza sociale storica che corrisponda alla fisica teorica. Non vi può essere
alcuna teoria scientifica dello sviluppo storico che possa servire di base per la
previsione storica.
e) Lo scopo fondamentale dello storicismo […] è, quindi, infondato. E lo storicismo
crolla.
La storia, per Popper, non ha alcun senso, a eccezione di quello che le diamo noi; di
conseguenza, la storia non ci giustifica, ci giudica.
In memoria degli innumerevoli uomini, donne e bambini di tutte le credenze, nazioni
o razze che caddero vittime della fede fascista e comunista nelle Inesorabili Leggi del
Destino storico.
È questa la dedica che Popper prepone a Miseria dello storicismo. Lo storicismo è una
concezione errata carica di danni etici e di orrori politici. Il danno etico, prodotto da
filosofie della storia dove si presume di aver scoperto l’ineluttabile senso della storia,
consiste nella deresponsabilizzazione delle persone. E al danno etico segue il disastro
politico, vale a dire il totalitarismo.

Individualismo metodologico e autonomia delle scienze sociali

Non esiste la Parlare di società è estremamente fuorviante.


società come realtà Naturalmente si può usare un concetto come la
autonoma e società o l’ordine sociale, ma non dobbiamo
indipendente dagli dimenticare che si tratta solo di concetti ausiliari.
individui Ciò che esiste veramente sono gli uomini, quelli
buoni e quelli cattivi – speriamo non siano troppi
questi ultimi –, comunque gli esseri umani, in
parte dogmatici, critici, pigri, diligenti o altro.
Questo è ciò che esiste davvero.
Così Popper ne La scienza e la storia sul filo dei ricordi (1990). Esistono gli uomini, i
quali agiscono in base alle loro idee; e queste loro azioni producono conseguenze
intenzionali e conseguenze inintenzionali. Sono gli uomini che esistono,
ciò che non esiste è la società. La gente crede invece alla sua esistenza e di
conseguenza dà la colpa di tutto alla società o all’ordine sociale. […] Uno dei
peggiori errori è credere che una cosa astratta sia concreta. Si tratta della peggiore
ideologia.
Considerazioni, queste, che pongono Popper in linea con la tradizione individualistica dei
marginalisti austriaci (Carl Menger, Ludwig von Mises, Friedrich von Hayek), oltre che
con la scuola dei moralisti scozzesi (David Hume, Adam Ferguson, Adam Smith) e con
pensatori come Georg Simmel e Max Weber.
L’individualismo – afferma Popper ne La società aperta e i suoi nemici – non si
contrappone ad altruismo, bensì a collettivismo, cioè a quelle concezioni che, nullificando
la realtà dell’individuo, danno sostanza a concetti collettivi come «partito», «Stato»,
«classe», «nazione» ecc.:
La maggior parte degli oggetti della scienza sociale, se non tutti, sono astratti: sono
costruzioni teoretiche.
Ad alcuni sembrerà strano, ma perfino la «guerra» o «l’esercito» sono costrutti
astratti. Uomini uccisi, uomini in divisa ecc., sono ciò che è concreto.
È un errore comunissimo credere che ai nostri modelli astratti corrispondano «cose». A
esso sfugge il ricercatore che ammette il postulato dell’individualismo metodologico:
Il compito di una teoria sociale è di costruire e analizzare i nostri modelli sociologici
attentamente in termini descrittivi o nominalisti, cioè in termini di individui, dei loro
atteggiamenti, delle loro speranze, dei loro rapporti, ecc. – postulato che possiamo
chiamare «individualismo metodologico».
Ad agire non sono le istituzioni; agiscono sempre e soltanto gli individui. E le azioni
intenzionali comportano conseguenze inintenzionali. Anche qui, in accordo con la scuola
austriaca di economia, Popper sostiene che
Il compito dello il compito principale delle scienze sociali
scienziato sociale teoriche […] consiste nel delineare le
ripercussioni sociali, non intenzionali, che
seguono dalle azioni umane intenzionali.
Non tutte le conseguenze delle nostre azioni sono conseguenze intenzionali, e perciò
è «compito essenziale delle scienze sociali» cercare e analizzare e, per quanto
possibile, prevedere tali conseguenze inintenzionali.
Nasce per via non intenzionale un sentiero presso gli animali, e anche presso gli uomini:
L’insorgenza delle [questo è] il modo in cui il linguaggio e forse
conseguenze qualsiasi altra istituzione può sorgere […].
inintenzionali delle Tali cose non sono né pianificate né volute, e
azioni umane forse di esse non c’era necessità prima che
intenzionali venissero all’esistenza. Ma esse possono
creare un nuovo bisogno e un nuovo insieme
di fini.
Occorre considerare il fatto che pure dalle azioni intenzionali che vanno a buon porto,
scaturiscono non di rado aspetti inattesi, come quando da un giardino ben programmato
verranno fuori «alcune impreviste interrelazioni fra gli oggetti pianificati».
Dalla consapevolezza che le azioni umane intenzionali comportano conseguenze
inintenzionali (prevedibili o all’epoca imprevedibili, gradite o sgradite), seguono
conclusioni di grande rilievo per la metodologia delle scienze sociali – conclusioni
riguardanti: 1) la genesi e il mutamento delle istituzioni sociali; 2) lo scardinamento della
teoria «cospiratoria» della società; 3) l’autonomia della sociologia.
[1.] Le istituzioni e le tradizioni non sono il lavoro né di Dio né della natura; esse
sono i risultati di azioni e decisioni umane, e alterabili da azioni e decisioni umane.
Tuttavia ciò non vuol dire che queste istituzioni e tradizioni siano tutte coscientemente
progettate e spiegabili in termini di progetti intenzionali. In realtà,
solo una minoranza delle istituzioni sociali sono volutamente progettate, mentre la
gran maggioranza di esse sono semplicemente venute su, «cresciute» come risultato
non premeditato di azioni umane.

Critica della teoria [2.] La teoria cospiratoria della società consiste


cospiratoria della nell’opinione secondo cui tutto quel che accade
società nella società – comprese le cose che la gente, di
regola, non ama, come la guerra, la
disoccupazione, la povertà, le carestie – sono il
risultato di un preciso proposito perseguito da alcuni individui o gruppi potenti
[come i Saggi di Sion, i monopolisti, i capitalisti, gli imperialisti].
Ora, però, sebbene diffusa e ampiamente accettata, la teoria cospiratoria è acritica, non
regge. Cospirazioni si sono avute nel passato, congiure si hanno nel presente e le avremo
nel futuro. Ma, in ogni caso,
i cospiratori raramente riescono ad attuare la loro cospirazione. […] Poche di
queste cospirazioni alla fine hanno successo.
Ed è esattamente l’insorgenza delle conseguenze inintenzionali a rendere comprensibile
l’inconsistenza della teoria cospiratoria della società: non tutti gli eventi sociali sono frutto
di piani intenzionali e, quindi, non tutti gli eventi sociali negativi sono frutto di piani
intenzionali. Né va dimenticato che «sotto forma della ricerca di capri espiatori la teoria
cospiratoria ha ispirato molti conflitti politici procurando molte sofferenze evitabili».
[3.] Forse la più importante critica allo psicologismo è che esso non riesce a
comprendere il compito fondamentale delle scienze sociali esplicative.
Lo psicologismo è la concezione stando alla quale tutte le istituzioni e tutti i fatti sociali
sarebbero da ridurre a sentimenti, ambizioni, aspirazioni, bisogni, paure dell’animo umano
– vale a dire a un universo di intenzioni esplorabili dalla psicologia. Con ciò le scienze
sociali dovrebbero ridursi a psicologia. Senonché, è proprio l’emergenza delle
conseguenze inintenzionali delle azioni umane intenzionali a mostrare con tutta chiarezza
l’autonomia delle scienze sociali dalla psicologia: alla psicologia sfugge il mondo estraneo
alle «intenzioni», sfuggono cioè le conseguenze inintenzionali – oggetto specifico delle
scienze sociali.
Le critiche allo psicologismo non comportano, tuttavia, una critica alla psicologia: la
psicologia «è una delle scienze sociali anche se non è la base della scienza sociale».

Perché Platone è un nemico della società aperta

Il primo volume de La società aperta e i suoi nemici Popper lo dedica a Platone (La
società aperta e suoi nemici. I. Platone totalitario). Da grande uomo, dice Popper, Platone
commise anche grandi errori. E il grande errore di Platone fu quello di aver teorizzato la
società chiusa. «Platone – ha scritto Gilbert Ryle, recensendo nel 1948 il libro di Popper –
fu il Giuda di Socrate e la Repubblica fu per lui non soltanto Il Capitale, ma anche il suo
Mein Kampf.» Platone, nell’interpretazione di Popper, è il corifeo della reazione contro la
società aperta della democrazia ateniese; è il teorico di uno stato ideale che dovrebbe
significare l’arresto di qualsiasi mutamento socio-politico; è il teorico dello stato
pietrificato strutturato su di una rigida divisione delle classi e sull’esclusivo dominio dei
filosofi-re, i quali, educati istituzionalmente dallo Stato, tutelano lo Stato stesso dalla
decadenza, nel senso che impediscono i movimenti politici, dal momento che il
movimento politico, per Platone, non può non portare, in base alla legge dello sviluppo
storico – che, per Platone, è legge di decadenza –, alla caduta e alla degenerazione. Lo
Stato di Platone è lo stato pietrificato, lo stato rigidamente diviso in classi; è lo stato il cui
destino si identifica con quello della classe dominante; è lo stato del privilegio, della
censura, del razzismo e del terrore. Popper non dubita minimamente che il programma
politico di Platone sia un programma tribale e totalitario: tribalismo, totalitarismo e
utopismo legati alla sua fede storicistica in una legge di decadenza. C’è, per Platone, un
gruppo che deve comandare, perché fatto di uomini (i filosofi-re) che sanno cosa è la
verità e cosa è la giustizia, e che, pertanto, sono legittimati a ricondurre gli altri sul «retto
sentiero». E il retto sentiero, per Platone, non è – come sarà invece per Hegel e per Marx –
la via del futuro: è piuttosto la via che riporta al passato, agli archetipi, alle Idee. Quindi
bisogna bloccare il mutamento. E questo, in politica, significa la «società chiusa». Tra la
libertà e la sicurezza, Platone sceglie la sicurezza. Proprio per questo la lezione che noi
dovremmo apprendere da Platone è proprio l’opposto di quanto egli vorrebbe insegnarci:
Per restare umani la Se vogliamo restare umani […] allora c’è
sola via da battere è una sola strada da percorrere: la via che
quella della società porta alla società aperta. Noi dobbiamo
aperta procedere verso l’ignoto, l’incertezza e
l’insicurezza, usando quel po’ di ragione che
abbiamo per realizzare nella migliore
maniera possibile entrambi questi fini: la sicurezza, la libertà.
Per Platone, più in particolare, il cambiamento è male, l’immobilità è divina. Dunque:
bloccare ogni cambiamento politico, tentando di ritornare allo Stato originario degli avi, al
patriarcato tribale, al naturale governo dei pochi sapienti sui molti ignoranti. Di seguito,
quelli che, secondo Popper, sono i principali elementi del programma politico di Platone:
Elementi A. La rigida divisione in classi; cioè la classe
fondamentali del dirigente formata dai pastori e dai cani da
programma politico guardia dev’essere nettamente separata
di Platone dall’armento umano. B. L’identificazione della
sorte dello Stato con quella della sua classe
dirigente; l’interesse esclusivo per questa classe
e per la sua unità; e, in funzione di questa unità, le rigide norme per allevare ed
educare questa classe e il rigido controllo e la collettivizzazione degli interessi dei
suoi membri.
Da questi tratti principali se ne possono dedurre altri, come i seguenti:
C. La classe dirigente ha il monopolio di certe cose, come l’addestramento e le virtù
militari e il diritto di portare armi e di ricevere un’educazione completa, ma è
esclusa da qualsiasi partecipazione alle attività economiche e, in particolare, dal
guadagno del denaro.
D. Ci deve essere una censura di tutte le attività intellettuali della classe dirigente e
una continua propaganda diretta a modellarne e a unificarne le menti. Ogni
innovazione nell’educazione, nella legislazione e nella religione deve essere evitata o
soppressa.
E. Lo stato deve essere autosufficiente. Esso deve tendere all’autarchia economica,
perché altrimenti i reggitori o verrebbero a dipendere dai commercianti o dovrebbero
essi stessi diventare commercianti. La prima di queste alternative minerebbe il loro
potere, la seconda la loro unità e stabilità dello Stato.
Questo programma, sentenzia Popper, è un programma politico totalitario – un programma
che, «lungi dall’essere moralmente superiore al totalitarismo, è fondamentalmente identico
a esso». La proposta di Platone è, dal punto di vista di Popper, semplicemente «anti-
umanitaria». Basti pensare all’idea che Platone ha della «giustizia». Che cosa intendeva
Platone con «giustizia»? L’idea platonica di «giustizia» è un’idea che riguarda lo Stato. Lo
Stato è giusto se è sano e forte, unito e stabile. (A supporto della propria analisi Popper
adduce alcuni passi della Repubblica, come, tra altri: 433 A; 434 A-B; 434 C-D.)
Contrario agli ideali egualitari, in campo politico, Platone vede nell’individuo il Sommo
Male. «Mai un uomo dimostrò una più radicale ostilità nei confronti dell’individuo» di
quanto fece Platone: per lui, lo Stato, il collettivo, è tutto; l’individuo è niente;
l’individualismo è il male supremo. (A sostegno di questa sua interpretazione Popper
richiama Leggi 739 C-E ss.; e Leggi 942 A-D.) E pensare, constata amaramente Popper,
che un simile atteggiamento chiaramente anti-umanitario e anti-cristiano, è stato
generalmente idealizzato. «È stato interpretato come umano, come disinteressato, come
altruistico e come cristiano.»

Karl Popper (a destra) con Norberto Bobbio

Platone identifica individualismo con egoismo. Per lui il criterio della moralità è
l’interesse dello Stato. Questa è, appunto, la teoria collettivistica, tribale e totalitaria dello
Stato: buono è ciò che è nell’interesse del mio gruppo o della mia tribù o del mio Stato.
Questa teoria è fatta propria da Platone. «Io… darò le leggi, posponendo, come è giusto,
l’interesse dei singoli e collocandolo fra cose di secondaria importanza» (Leggi, 923 B).
Platone, conclude Popper, si preoccupa soltanto del tutto collettivo in quanto tale, e la
giustizia, per lui, non è altro che «la sanità, l’unità e la stabilità del corpo collettivo».
Pertanto, il compito della selezione dei futuri leader è essenziale. Chi deve governare? A
tale interrogativo Platone risponde che devono governare i migliori; e questi debbono
venir formati e selezionati istituzionalmente, e qui Popper aggiunge che con la sua
soluzione del problema della leadership
Platone ha totalmente corrotto e confuso la teoria e la pratica dell’educazione.
Per Socrate il «saggio» è colui che sa di non sapere; e filosofo è, per Socrate, un amante
della verità; Platone invece, secondo Popper, introduce un totale cambiamento della
prospettiva socratica:
Il filosofo per Il suo amante della verità non è più il modesto
Socrate e per ricercatore ma l’orgoglioso possessore della
Platone verità. Da esperto dialettico, il filosofo platonico
è capace di intuizione intellettuale, cioè di vedere
(e di comunicare con) le eterne, celesti Forme o
Idee. Posto in alto, al di sopra di tutti gli uomini comuni, egli è «come un dio, se
non… divino» (Repubblica, 540 C), sia nella sua sapienza che nel suo potere. Il
filosofo ideale di Platone è prossimo sia all’onniscienza che all’onnipotenza. Egli è il
Filosofo-Re. È impossibile, io credo, concepire un contrasto più radicale di quello
esistente fra l’ideale socratico e l’ideale platonico del filosofo. È il contrasto tra due
mondi: il mondo di un modesto, ragionevole individualista e quello di un totalitario
semidio.

Hegel ha trasformato la filosofia nella più servile ancella del potere

Il secondo volume de La società aperta e i suoi nemici si apre con la trattazione delle
radici aristoteliche del pensiero di Hegel. La verità – scrive Popper – è che Aristotele, con
la sua pretesa di venir in possesso della conoscenza delle essenze delle cose, chiedeva
troppo:
I nefasti risultati L’essenzialismo non solo incoraggiò le dispute
dell’essenzialismo verbali, ma portò anche alla disillusione nei
di Platone e confronti dell’argomentazione, cioè della
Aristotele ragione. Scolasticismo, misticismo e sfiducia
nella ragione: ecco gli inevitabili risultati
dell’essenzialismo di Platone e Aristotele. E
l’aperta rivolta di Platone contro la libertà diventa, con Aristotele, una rivolta
segreta contro la ragione.
Hegel, «la fonte di tutto lo storicismo contemporaneo», fu un seguace diretto di Eraclito,
Platone e Aristotele. E il suo successo segnò l’avvio dell’era della disonestà intellettuale e
della irresponsabilità morale: «l’inizio di una nuova era dominata dalla magia di parole
altisonanti e dalla potenza del gergo». Ed è poco probabile che Hegel sarebbe mai
diventato la figura di maggior spicco e più influente della filosofia tedesca senza
l’interessato appoggio delle autorità dello stato prussiano:
Hegel divenne […] il primo filosofo ufficiale del prussianesimo, designato a questa
carica nel periodo della «restaurazione» feudale dopo le guerre napoleoniche.
Diversamente da Platone, Hegel non sostiene che lo sviluppo del mondo sia guidato da
una legge di decadenza. Come Speusippo e Aristotele, Hegel è dell’avviso che la tendenza
generale della storia del mondo è il progresso. Il divenire del mondo non è decadenza: «lo
storicismo di Hegel è ottimistico». E non poteva essere diversamente: l’ineluttabile
sviluppo dialettico (tesi-antitesi-sintesi) aveva portato sulla «scena della storia» lo Stato
prussiano. Come Eraclito, Hegel crede che la guerra sia giusta e scrive che «la storia del
mondo è il tribunale del mondo».
Oltre la dottrina della dialettica, l’altro pilastro dell’hegelismo è la filosofia dell’identità,
la quale, a sua volta, è «una applicazione della dialettica». La filosofia dell’identità
consente a Hegel di sostenere «che tutto ciò che è razionale dev’essere reale e che tutto ciò
che è reale dev’essere razionale e che lo sviluppo della realtà è lo stesso che quello della
ragione». Ciò vuol dire che «tutto ciò che ora è reale o effettuale esiste per necessità e
dev’essere razionale e buono». Ma reale è la monarchia assoluta di Federico Guglielmo, e
dunque essa non può non essere razionale e buona. Appare così in tutta evidenza che la
filosofia dell’identità serve a giustificare l’ordine costituito:
La filosofia il risultato fondamentale [della filosofia
hegeliana dell’identità] è un positivismo etico e giuridico,
dell’identità la dottrina che ciò che è, è bene, dal momento
giustifica una resa che non ci sono altri standard all’infuori di quelli
ai fatti esistenti; è la dottrina che la forza è diritto.
All’interno di questa cornice – pervertendo i
significati di concetti come libertà di pensiero,
costituzione politica, uguaglianza ecc. – Hegel trasforma la filosofia nella «più servile
ancella» del potere:
[In base alla filosofia hegeliana,] alla coscienza deve sostituirsi la cieca obbedienza
e una romantica etica eraclitea della fama e del fato e alla fraternità dell’uomo un
nazionalismo totalitario.
E – soggiunge Popper – quasi tutte le idee più importanti del totalitarismo moderno sono
direttamente ereditate da Hegel. Come ha scritto Arthur Zimmern, fu proprio Hegel a
raccogliere e conservare tutte quelle idee che costituiscono «l’arsenale d’armi dei
movimenti autoritari»:
Idee di Hegel che a. Nazionalismo, nella forma dell’idea
sono alla radice del storicistica che lo stato è una incarnazione dello
totalitarismo Spirito (ovvero, ora, del Sangue) della nazione (o
moderno razza) che crea lo Stato; una nazione eletta (ora,
la razza eletta) è destinata al dominio del mondo.
b. Lo stato come nemico naturale di tutti gli altri
stati deve affermare la sua esistenza in guerra.
c. Lo stato è esente da qualsiasi genere di obbligazione morale; la storia, cioè il
successo storico, è il solo giudice; l’utilità collettiva è il solo principio di condotta
personale; la menzogna propagandistica e la distorsione della realtà sono permesse.
d. L’idea «etica» della guerra (totale e collettivistica), particolarmente delle nazioni
giovani contro le vecchie; guerra, fato e fama come i più desiderabili beni.
e. Il ruolo creativo del Grand’Uomo, la personalità di rilevanza storica mondiale,
l’uomo di profonda conoscenza e di grande passione […].
f. L’ideale della vita eroica («vivere pericolosamente») e dell’«uomo eroico» in
contrapposizione al piccolo borghese e alla sua vita di piatta mediocrità.
Questa lista di «tesori spirituali» – commenta sarcasticamente Popper – non è né
sistematica né completa. Si tratta di idee raccolte e rese pronte per l’uso da Hegel, dai suoi
seguaci e da una intellighenzia che per tre generazioni si è alimentata con questo
«degradante nutrimento spirituale». In conclusione, Popper afferma che «la farsa
hegeliana è durata anche troppo»; e lamenta che troppi filosofi hanno trascurato gli
ammonimenti, «tante volte ripetuti», di Schopenhauer, circa la «perniciosa influenza» di
Hegel – «li hanno trascurati non tanto a loro rischio e pericolo (a essi non è poi andata
male), quanto piuttosto a rischio e pericolo di coloro ai quali loro hanno insegnato; a
rischio e pericolo del genere umano».

Il marxismo nacque come scienza ed è finito come metafisica crudele

Il marxismo è stata la più pura, la più elaborata e la più pericolosa forma di


storicismo.
In ogni caso, però, aggiunge Popper, «non si possono avere dubbi sulla carica umanitaria
del marxismo». Marx fece un onesto tentativo di applicare i metodi razionali ai più
pressanti problemi sociali. Le sue dottrine fondamentali sono sbagliate. Eppure,
Marx ci ha aperto gli occhi e ce li ha resi più acuti in molti modi. Un ritorno alla
scienza sociale pre-marxiana è inconcepibile.
Popper è inoltre pronto a riconoscere la sincerità di Marx:
Marx: uno dei più La sua apertura di mente, il suo senso dei fatti, il
grandi combattenti suo disprezzo per la verbosità, e specialmente la
contro l’ipocrisia e il verbosità moraleggiante, hanno fatto di lui uno
fariseismo dei più importanti combattenti, a livello
mondiale, contro l’ipocrisia e il fariseismo. Egli
provava un bruciante desiderio di andare in aiuto
degli oppressi ed era pienamente conscio della necessità di cimentarsi nei fatti e non
solo a parole […]. L’interesse di Marx per la scienza sociale e per la filosofia sociale
fu fondamentalmente un interesse pratico. Egli vedeva nella conoscenza un mezzo
per promuovere il progresso dell’uomo.
Ora, però, nonostante i suoi meriti, afferma Popper,
Marx fu un falso profeta, […] responsabile della rovinosa influenza del metodo di
pensare storicista tra i ranghi di quanti vogliono far avanzare la causa della società
aperta.
Il marxismo, in effetti, è storicismo:
Il marxismo è una teoria che si propone di predire il futuro corso degli sviluppi
economici e politici e specialmente delle rivoluzioni.
Ne Il Capitale Marx dice che, anche quando una società è riuscita a intravedere la legge di
natura del proprio movimento, essa «non può né saltare né eliminare per decreto le fasi
naturali dello svolgimento. Ma può abbreviare e attenuare le doglie del parto». E ancora:
«fine ultimo al quale mira quest’opera [Il Capitale] è di svelare la legge economica del
movimento della società moderna». Leggi ineluttabili guidano, secondo Marx, la storia
degli uomini. Opinione, questa, che Popper giudica profondamente errata, giacché, tra
l’altro, ignora la fondamentale distinzione tra predizione scientifica (sempre condizionale)
e profezia storica generale (incondizionata).
D’altra parte, prendendo in considerazione la teoria marxiana del materialismo storico –
cioè la concezione secondo cui «non è la coscienza degli uomini che determina il loro
essere, ma è, al contrario, il loro essere sociale che determina la loro coscienza», Popper
afferma che «questa idea è perfettamente valida, almeno finché prendiamo il termine
“fondamentale” nel suo senso vago abituale, senza insistere troppo su di esso». Gli studi
sociali possono avvantaggiarsi se i ricercatori terranno d’occhio le «condizioni
economiche» di eventi e istituzioni, guidati dalla convinzione che «c’è una interazione fra
le condizioni economiche e le idee e non semplicemente una dipendenza unilaterale delle
ultime dalle prime». Ecco, in breve, la posizione di Popper nei confronti del materialismo
storico:
L’errore del materialismo Anche se la generale importanza
storico
dell’economicismo di Marx può difficilmente
essere sopravvalutata, può facilmente essere
sopravvalutata l’importanza delle condizioni economiche nei casi particolari.
E, ironia della sorte, la storia dello stesso marxismo – annota Popper – fornisce esempi che
smentiscono l’economicismo di Marx. L’idea di Marx «Proletari di tutti i paesi, unitevi!»
«ha avuto una influenza decisiva sulle condizioni economiche». E, analogamente, l’idea di
Lenin «il socialismo è la dittatura del proletariato, con l’aggiunta della più vasta
introduzione del più moderno macchinario elettrico» – fu una idea nuova «che divenne la
base di uno sviluppo che cambiò l’intero background economico e materiale di un sesto
del mondo».
Inconsistente il materialismo storico, infondato risulta, per Popper, il materialismo
dialettico – un armamentario concettuale utilizzato da Marx nell’analisi e previsione dei
mutamenti della società, e più in particolare in funzione della profezia storica circa
l’ineluttabile avvento della società senza classi. Le analisi sociologiche ed economiche
lasciateci da Marx, nonostante la loro unilateralità, «appaiono eccellenti nella misura in
cui si limitano a essere descrittive»; tuttavia, l’ingegnoso tentativo di Marx teso a ottenere
conclusioni dall’osservazione delle tendenze economiche dell’epoca è fallito:
Il fallimento di Marx La ragione del suo fallimento come profeta va
va imputato al suo esclusivamente ricercato nella povertà dello
storicismo storicismo in quanto tale, nel semplice fatto che,
anche se constatiamo oggi il manifestarsi di una
certa tendenza o direzione storica, non possiamo
sapere quale aspetto essa potrà assumere domani.
Marx cadde nel deleterio errore di scambiare una tendenza per una legge della storia. Egli
ebbe successo nell’analisi delle istituzioni: ma non fu di certo il suo metodo storicistico a
portarlo al successo: anzi è vero il contrario: «nessuna delle sue più ambiziose e vaste
profezie rientra nell’ambito dell’analisi istituzionale». E, in ogni caso, nelle menti dei
seguaci di Marx è rimasto predominante l’elemento profetico del credo di Marx; e ciò li ha
indotti a bandire la forza del giudizio spassionato e ad accantonare la convinzione che con
l’uso della ragione sia possibile cambiare e migliorare il mondo. Asserisce amaramente
Popper:
Tutto quel che è rimasto dell’insegnamento di Marx fu la filosofia oracolare di Hegel
che, nei suoi travestimenti marxisti, minaccia di paralizzare la lotta per la società
aperta.
Il marxismo, diversamente dalla psicoanalisi, nacque come scienza ed è finito – scrive
Popper nelle Replies to My Criticis (1984) – come metafisica crudele. E nei Pensieri sul
collasso del comunismo: un tentativo di capire il passato e di costruire il futuro (1982) si
legge:
Errori coperti da Il marxismo è morto di marxismo. O, per essere
una valanga di più esatti: il potere marxista è morto a causa
menzogne dell’infecondità della teoria marxista. La teoria
marxista, l’ideologia marxista, forse era una
teoria ingegnosa; ma essa andava contro i fatti
della storia e della vita sociale: si trattava di una teoria totalmente errata e del tutto
presuntuosa. E i suoi tanti sbagli, i suoi numerosi errori teorici vennero coperti da
una quantità enorme di menzogne, piccole e anche grandi menzogne. La menzogna,
supportata dalla violenza e dall’esercizio brutale del potere, venne ben presto
accettata come normale regola intellettuale dalla classe comunista che dominava la
Russia con poteri dittatoriali e dagli altri dirigenti che, fuori della Russia,
aspiravano anch’essi a diventare dittatori.
Di fronte all’alternativa «dobbiamo essere i creatori del nostro destino o dobbiamo
accontentarci di esserne i profeti», Popper non dubita che Marx – con la sua passione per
la libertà e la giustizia – avrebbe deciso di essere un creatore, e non semplicemente un
profeta. Senonché alla forte tendenza «attivistica», Marx contrappose il suo storicismo: e
fu esattamente lo storicismo a trasformarlo in profeta. Marx, difatti, «giunse alla
conclusione che, almeno sotto il capitalismo, dobbiamo soggiacere a “leggi inesorabili” e
tutto quel che possiamo fare si riduce ad “abbreviare e attenuare le doglie del parto” delle
“fasi naturali dello svolgimento”». Indubbiamente, c’è un divario tra l’attivismo di Marx e
il suo storicismo. E Popper sostiene che questo divario venne, in buona sostanza, colmato
in Marx ed Engels dalla teoria morale storicistica: la storia ha le sue leggi; e in base a
queste leggi un mondo ingiusto verrà cancellato da una rivoluzione incombente e
ineluttabile; dunque il compito del socialista è quello di contribuire attivamente ad
abbreviare e ad alleviare le doglie.
Una posizione del genere ci riporta al positivismo morale di Hegel: ciò che è reale, ciò che
esiste, è razionale, è buono – e quindi la forza è diritto. La teoria morale storicistica è,
appunto, un’altra forma del positivismo morale. Essa asserisce infatti che la forza futura è
il diritto. La resa ai fatti è completa. Siffatta teoria morale storicistica di Marx è, secondo
Popper, «soltanto il risultato della sua concezione del metodo della scienza sociale, del suo
determinismo sociologico» – del suo sociologismo, o se vogliamo del suo istorismo:
sociologismo e istorismo tramite cui si sostiene la determinazione delle nostre opinioni da
parte della società o della storia. Qui, però, sebbene sia vero che l’uomo, i suoi fini, i suoi
ideali e le sue idee, siano in un certo senso un prodotto della società, è tuttavia anche vero
che
la società è un prodotto dell’uomo e dei suoi fini e […] tale può diventare in misura
sempre maggiore. […] È anche assolutamente certo che l’ambiente dell’uomo è in
misura crescente un prodotto dell’uomo stesso e dei suoi fini.
Il determinismo sociologico di Marx è dunque un chiaro errore. Ed è il suo radicalismo
morale – non il suo determinismo sociologistico e il suo positivismo morale – a spiegare il
grande influsso di Marx:
Quel che di Marx Questo radicalismo morale è ancora vivo. Ed è
deve rimanere vivo nostro compito mantenerlo vivo e salvarlo dal
sentiero su cui si muove, invece, il suo
radicalismo politico. Il marxismo «scientifico» è
morto. Ma il suo senso di responsabilità sociale e il suo amore alla libertà debbono
seguitare a vivere.

Società chiusa e società aperta

Platone, Hegel e Marx: tre nemici della società aperta, di quella società che è aperta a più
visioni del mondo filosofiche e religiose, a più valori, a differenti soluzioni dei problemi
concreti, alla maggior quantità di critica. La società aperta è chiusa solo agli intolleranti.
Ed è aperta dalla consapevolezza della fallibilità della conoscenza umana e dal pluralismo
dei valori. Per contrario, la società chiusa è chiusa dalla pretesa di essere possessori di
verità ultime, totali e magari incontrovertibili, e portatori di valori presunti assoluti
razionalmente dimostrati e comunque da imporre agli altri.
Se le filosofie storicistiche sono servite quali pseudo-giustificazioni razionali del potere di
questo o quell’individuo o di questo o quel gruppo, tale potere – e insieme a esso, spesso,
la violenza – è stato giustificato anche da quelle concezioni di filosofia della politica che
sono andate alla ricerca di chi deve comandare, nella persuasione che compito del filosofo
politico sia esattamente quello di individuare chi, per motivi razionali convincenti e
condivisibili, dovrebbe comandare. «Chi deve comandare?»: è questa, secondo Platone, la
domanda principale cui dovrebbe rispondere il teorico o filosofo della politica. «Chi deve
comandare?»: devono comandare i filosofi, rispose Platone. E la stessa domanda ha
ricevuto, di volta in volta, altre risposte. Senonché, la domanda di Platone è sviante; è una
domanda irrazionale. Ogni teoria della sovranità, intesa in questo senso, conduce a
paradossi. Razionale non è la domanda «chi deve comandare?». Razionale è, piuttosto,
quest’altra domanda: «Come possiamo organizzare le istituzioni politiche in modo da
impedire che i governanti cattivi o incompetenti facciano troppo danno?». È questa la
domanda sottesa alla società aperta. Non chi deve comandare, ma come controllare chi
comanda: questo vogliono sapere uomini fallibili i quali costruiscono, perfezionano e
proteggono le istituzioni democratiche, al cui interno uomini fallibili possono convivere –
nella continua proposta di alternative e nella critica incessante alle soluzioni proposte –
con altri uomini fallibili portatori di idee e ideali contrastanti.
Un’immagine di società aperta, afferma Popper, è quella che Pericle delinea nel suo
celebre discorso:
L’Atene di Pericle: Le parole di Pericle costituiscono il programma
immagine di società politico di un grande individualista, di un
aperta democratico che si rende perfettamente conto del
fatto che la democrazia non può esaurirsi nel
principio senza senso che il popolo debba
governare, ma deve fondarsi sulla fede nella ragione e sull’umanitarismo. Nello
stesso tempo esse sono espressione del vero patriottismo, del giusto orgoglio di una
città che si è proposta come compito di diventare un esempio; che è divenuta la
scuola non solo dell’Ellade, ma, come sappiamo, del genere umano per millenni del
passato e per quelli del futuro.
E se quella delineata da Pericle è l’immagine della società aperta, i principi della politica
spartana determinano l’immagine della società chiusa. Ecco tali principi:
I principi della 1. protezione del […] tribalismo bloccato:
società chiusa di esclusione di tutte le influenze straniere che
Sparta potessero mettere in pericolo la rigidità dei tabù
tribali;
2. antiumanitarismo: esclusione, più
particolarmente, di tutte le ideologie egualitarie, democratiche e individualistiche;
3. autarchia: non dover dipendere dal commercio;
4. antiuniversalismo o particolarismo: mantenere ferma la distinzione fra la propria
tribù e tutte le altre; non mescolarsi con gli inferiori;
5. signoria: dominare e schiavizzare i vicini;
6. ma non diventare troppo grande: accrescere lo stato affinché possa, crescendo,
rimanere uno; ma oltre questo limite, no, e specialmente senza rischiare
l’introduzione di tendenze universalistiche.
Se confrontiamo, commenta Popper, queste sei tendenze principali con quelle proprie del
totalitarismo, «vediamo che, in sostanza, l’accordo fra esse è pieno e totale, salvo che per
la ultima soltanto». Ma, a proposito di questa, c’è da dire che
il nostro mondo è diventato così piccolo che tutti sono nostri vicini, sicché per
mandare a effetto il punto 5), tutti debbono essere dominati e schiavizzati.

Le regole della democrazia

Sono le istituzioni democratiche e solo queste a costituire una società democratica. E le


regole della democrazia possono venir fissate – scrive Popper – nei seguenti punti:
a) La democrazia non può compiutamente caratterizzarsi solo come governo della
maggioranza, benché l’istituzione delle elezioni generali sia della massima
importanza. Infatti, una maggioranza può governare in maniera tirannica. (La
maggioranza di coloro che hanno una statura inferiore a sei piedi può decidere che
sia la minoranza di coloro che hanno una statura superiore ai sei piedi a pagare tutte
le tasse.) In una democrazia, i governanti al potere – cioè il governo – possono
essere licenziati dai governati senza spargimenti di sangue. Quindi se gli uomini al
potere non salvaguardano quelle istituzioni che assicurano alla minoranza la
possibilità di lavorare per un cambiamento pacifico, il loro governo è una tirannia.
b) Dobbiamo distinguere soltanto tra due forme di governo, cioè quello che possiede
istituzioni di questo genere e tutti gli altri; vale a dire fra democrazia e tirannide.
c) Una costituzione democratica consistente deve escludere soltanto un tipo di
cambiamento nel sistema legale, cioè quel tipo di cambiamento che può mettere in
pericolo il suo carattere democratico.
d) In una democrazia, l’integrale protezione delle minoranze non deve estendersi a
coloro che violano la legge e specialmente a coloro che incitano gli altri al
rovesciamento violento della democrazia.
e) Una linea politica volta all’instaurazione di istituzioni intese alla salvaguardia
della democrazia deve sempre operare in base al presupposto che ci possono essere
tendenze anti-democratiche latenti sia fra i governati che fra i governanti.
f) Se la democrazia è distrutta, tutti i diritti sono distrutti, anche se fossero mantenuti
certi vantaggi economici goduti dai governanti, essi lo sarebbero solo sulla base
della rassegnazione.
g) La democrazia offre un prezioso campo di battaglia per qualsiasi riforma
ragionevole dato che essa permette l’attuazione di riforme senza violenza. Ma se la
prevenzione della democrazia non diventa la preoccupazione preminente in ogni
battaglia particolare condotta su questo campo di battaglia, le tendenze
antidemocratiche latenti che sono sempre presenti (e che fanno appello a coloro che
soffrono sotto l’effetto stressante della società […]) possono provocare il crollo della
democrazia. Se la comprensione di questi principi non è ancora sufficientemente
sviluppata, bisogna promuoverla. La linea politica opposta può riuscire fatale; essa
può comportare la perdita della battaglia più importante, che è la battaglia per la
stessa democrazia.
La demarcazione, dunque, tra una democrazia e una dittatura è istituita dal seguente
criterio:
Come distinguere tra una Si vive in democrazia quando esistono istituzioni
democrazia e una dittatura
che permettono di rovesciare il governo senza
ricorrere alla violenza, cioè senza giungere alla
soppressione fisica dei suoi componenti. È questa la caratteristica di una
democrazia.

La differenza fra una democrazia e una tirannide è che nella prima il governo può
essere eliminato senza spargimento di sangue, nella seconda no.
Per Popper non hanno rilievo formule come «la democrazia è il governo della
maggioranza» o «la democrazia è il governo del popolo»: una maggioranza potrebbe
governare tirannicamente e il popolo (o, meglio, il «furore» del popolo) potrebbe anche
scegliere una tirannide. In realtà, una democrazia esiste se si danno precise istituzioni, «in
modo particolare quelle che offrono ai governanti la possibilità di criticare i propri
governanti e sostituirli senza spargimento di sangue». L’idea di democrazia come governo
del popolo deve venir sostituita dall’idea di democrazia come giudizio del popolo.
L’umanitarismo, la libertà e l’eguaglianza sono valori che dobbiamo all’influenza del cristianesimo

Lo Stato etico o Stato totalitario (la «società chiusa», cioè) è lo Stato in cui l’individuo,
vale a dire la persona e la sua coscienza, sono proprietà dello Stato. Lo Stato etico è
padrone assoluto di ogni individuo, ne è il giudice inappellabile, ne è l’infallibile maestro.
Lo Stato etico si ha là dove «tutto è nello Stato, niente contro lo Stato, nulla al di fuori
dello Stato» (Benito Mussolini).
Ebbene, contro questa teoria dello stato – liberticida e tribale –, Popper rivendica i diritti
della ragione umana, e della coscienza individuale. E fa questo richiamandosi
esplicitamente – lui che si dichiara agnostico – alla tradizione cristiana. È ben vero che è
stata talvolta proposta e difesa una specie di storicismo teologico stando al quale «Dio si
rivela nella storia» e «lo storicismo è un elemento necessario della religione». Ribadisce
con decisione Popper nell’ultimo capitolo (XXV) della Società aperta e i suoi nemici:
Lo storicismo Ma io dissento da questa visuale. Io sostengo che
teologico è questa concezione è pura idolatria e
blasfemia superstizione, non solo dal punto di vista
razionalista o di un umanitario, ma dallo stesso
punto di vista cristiano. […] Sostenere che Dio
rivela se stesso in quello che normalmente si chiama storia, nella storia del crimine
internazionale e dell’assassinio in massa, è senz’altro blasfemo.
In una storia non solo fatta, ma anche contraffatta dall’uomo, non è giusto, a suo avviso,
che alcuni cristiani osino vedere la mano di Dio. E, per rafforzare questa idea critica nei
confronti dello storicismo teologico, Popper si riporta a Karl Barth e a Kierkegaard
affermando che:
I primi cristiani Il metro del successo storico appare
sostenevano che è incompatibile con lo spirito del cristianesimo. [I
la coscienza a primi cristiani] ritenevano che è la coscienza che
dover giudicare il deve giudicare il potere e non viceversa. […]
potere, e non Coloro che sostengono che la storia del successo
viceversa dell’insegnamento cristiano rivela la volontà di
Dio dovrebbero chiedersi se questo successo fu
realmente un successo dello spirito del
cristianesimo e se questo spirito non trionfò al
tempo in cui la Chiesa era perseguitata, piuttosto che al tempo in cui la Chiesa era
trionfante. Quale chiesa impersonò più puramente questo spirito: la chiesa dei
martiri o la chiesa vittoriosa della Inquisizione?
In effetti, quel che Popper esalta della tradizione cristiana è il valore che questa attribuisce
alla coscienza dei singoli individui. Per un umanitario, e soprattutto per un cristiano, egli
dice,
I grandi ideali della non esiste uomo che sia più importante di un altro
civiltà occidentale li uomo. […] Riconosco che si deve senz’altro tener
dobbiamo presente […] che gran parte dei nostri scopi e
all’influenza del fini occidentali, come l’umanitarismo, la libertà,
l’uguaglianza, li dobbiamo alla influenza del
cristianesimo cristianesimo. Ma, nello stesso tempo, bisogna
anche tener presente che il solo atteggiamento
razionale e il solo atteggiamento cristiano anche
nei confronti della storia della libertà è che siamo noi stessi responsabili di essa, allo
stesso modo che siamo responsabili di ciò che facciamo delle nostre vite e che
soltanto la nostra coscienza, e non il nostro successo mondano può giudicarci.
La storia insegnata nelle scuole – fa presente Popper – è la storia dove alcuni dei più
grandi criminali sono esaltati come eroi: è la storia del potere. È la storia della
malversazione e del ladrocinio, «la storia del crimine internazionale e dell’assassinio di
massa». Questa storia «è elevata alla dignità di storia del mondo». Si tratta, commenta
amaramente Popper, «di una vera e propria offesa a una giusta concezione del genere
umano». Tuttavia, troviamo qui una spia del fatto che «gli uomini sono inclini a venerare
il potere»; e
non c’è dubbio che il culto del potere è uno dei peggiori generi di idolatria umana,
un relitto del tempo della gabbia, della servitù umana.
Comunque, prosegue Popper, la storia scritta «sotto il controllo di imperatori, generali e
dittatori» ovvero nella gabbia della venerazione del potere, vale a dire «la storia dei grandi
e dei potenti è nel migliore dei casi una superficiale commedia; è l’opera buffa
rappresentata dalle potenze che si celano dietro la realtà (simile all’opera buffa di Omero
sulle potenze olimpiche dietro la scena delle lotte umane). Ed è appunto questo che uno
dei nostri istinti peggiori, il culto idolatrino del potere, del successo, ci ha spinto a ritenere
reale». Ma la storia concreta non è questa. Se una storia reale e concreta potesse venir
scritta – e non lo può – «dovrebbe essere la storia di tutte le speranze, lotte e sofferenze
umane». In realtà,
la vita dell’uomo singolo dimenticato, ignoto, le sue pene e le sue gioie, la sua
sofferenza e la sua morte, questo è il contenuto effettivo dell’esperienza umana
attraverso i secoli.
La coscienza che giudica il potere e che elimina il successo mondano come criterio di
valore delle proprie scelte e azioni, ecco, dunque, cosa avvicina Popper alla tradizione
cristiana. E la legge di Hume, vale a dire l’inderivabilità logica delle decisioni dai fatti, ci
dimostra che «i fatti in quanto tali non hanno senso; possono acquistarne uno soltanto
attraverso le nostre decisioni». E questa legge di Hume, prosegue Popper, benché si tenti
di negarla attraverso la superstizione storicistica, non è in alcun modo contraria «a una
religione fondata sull’idea della responsabilità personale e della libertà di coscienza»:
Naturalmente io ho in mente in particolare il cristianesimo […], quel cristianesimo
che, contro ogni forma di tabù, predica: «Voi avete udito che fu detto a quelli del
tempo antico… Ma io vi dico…», opponendo in ogni caso la voce della coscienza
all’obbedienza meramente formale e all’adempimento della legge.
In realtà, la legge di Hume è il fondamento logico della libertà della coscienza umana. Ma
c’è dell’altro. Scrive infatti Popper:
Io non so se il cristianesimo significhi distacco dal mondo, ma so per certo che esso insegna che il
solo modo di dar prova
della propria fede è quello di prestare aiuto pratico (e
Conseguenze mondano) a coloro che ne hanno bisogno. Ed è certamente
possibile combinare un atteggiamento di estremo riserbo e
umanitarie di una anche di disprezzo per il successo mondano nel senso del
fede cristiana potere, della gloria e della ricchezza, con lo sforzo di fare
sinceramente del proprio meglio in questo mondo e di perseguire i piani
che si è deciso di fare propri con il chiaro proposito di farli
vissuta trionfare; non per amore del successo o della propria
consacrazione da parte della storia, ma semplicemente per
amore di essi.

Questo, per Popper, è il vero insegnamento del cristianesimo.


Thomas Samuel Kuhn
THOMAS KUHN E LA STRUTTURA DELLE
RIVOLUZIONI SCIENTIFICHE

II
La vita e le opere

Thomas Samuel Kuhn nasce a Cincinnati, nell’Ohio, il 18 luglio 1922, in una famiglia di origini
ebraiche. Si iscrive nel 1940 all’università di Harvard, dove si diploma in fisica nel 1943.
Trascorre un breve periodo in Europa impegnato in ricerche sulle contromisure radar per aerei da
guerra.
Nell’autunno del 1947, su invito di James Bryant Conant, l’illustre chimico, allora rettore
dell’università, insegna in un corso progettato come Science for the Non-Scientist, dove, tramite esempi
storici, si facevano vedere agli studenti i tratti caratteristici dell’impresa scientifica. È in questo modo che
Kuhn si avvicina alla storia della scienza e a quei cambiamenti concettuali che separano un grande
scienziato da un altro, vale a dire alle rivoluzioni scientifiche.
A Harvard entra in contatto con Willard Van Orman Quine, Stanley Cavell, George Sarton e Isaac
Bernard Cohen; all’University College di Londra con Mary Hesse, Alistair Crombie e Stephen Toulmin; in
Francia, invitato da Alexandre Koyré, conosce Gaston Bachelard.
Nel 1949 consegue il PhD in fisica teorica. Nel 1950 assiste alle William James Lectures tenute da
Karl Popper a Harvard.
Dal 1951 al 1956 insegna nel corso di General Education and History of Science. Da queste lezioni
scaturisce il primo libro di Kuhn: The Copernican Revolution. Planetary Astronomy in the Development of
Western Thought (La rivoluzione copernicana. L’astronomia planetaria nello sviluppo del pensiero
occidentale, 1957).
Trasferitosi a Berkeley, lavora sino al 1964 presso il dipartimento di storia della scienza e in quello di
filosofia. A Berkeley conosce Paul Feyerabend: sarà questo un incontro molto importante per Kuhn, al pari
dei suoi contatti con Michael Polanyi nel 1958-1959 e poi con Norwood Russell Hanson.
È nel 1962 che esce la sua opera di maggior peso: The Structure of Scientific Revolutions (La
struttura delle rivoluzioni scientifiche). In Danimarca lavora a un progetto di catalogazione relativa alle fonti
della fisica dei quanti; e in collaborazione con John Heilbron, Paul Forman e Lili Allen, pubblica Sources
for History of Quantum Physics. An Inventory and Report (1967) (Fonti per la storia della fisica quantistica.
Inventario e rapporto).
Professore dal 1964 di filosofia e storia della fisica, a Princeton, partecipa nel 1965 al Bedford College
di Londra all’International Colloquium in The Philosophy of Science, nel corso del quale pone a confronto
le sue tesi con quelle di Popper e della sua scuola. I contributi al dibattito sono raccolti nel volume
Criticism and the Growth of Science (Critica e crescita della conoscenza).
Dalla metà degli anni Sessanta l’opera di Kuhn viene fatta oggetto di molte discussioni tra i filosofi. E,
sotto la pressione di critiche in cui lo si accusava di aver introdotto forme di relativismo e di irrazionalismo
in quella che è la più razionale delle attività umane, la ricerca scientifica, Kuhn nel 1970 pubblica la
seconda edizione di La struttura delle rivoluzioni scientifiche arricchita di un prezioso Poscritto, in cui
articola le repliche ai suoi critici.
Una raccolta di significativi saggi, apparsi negli anni Sessanta e Settanta, appare nel 1977: The
Essential Tension. Selected Studies in Scientific Tradition and Change (La tensione essenziale.
Cambiamenti e continuità, 1985).
Del 1978 è il volume: Black-Body Theory and the Quantum Discontinuity, 1894-1912 (Alle origini della
fisica contemporanea. La teoria del corpo nero e la discontinuità quantica).
Nel 1979 Kuhn si trasferisce dall’università di Princeton al Massachusetts Institute of Technology di
Boston, per insegnarvi storia e filosofia della scienza. Al MIT, dove lavora fra altri Noam Chomsky, Kuhn,
al fine di ridefinire nel modo più consistente il concetto di incommensurabilità, compie indagini sulla
rilevanza dei processi cognitivi e linguistici per lo sviluppo della scienza.
Kuhn si ritira dall’insegnamento nel 1991. Muore a Cambridge, Massachusetts, il 17 giugno 1996.

Paradigmi, scienza normale e anomalie

Insieme a Imre Lakatos, Paul Feyerabend e Larry Laudan, Thomas Samuel Kuhn fa parte
di quel drappello di noti epistemologi postpopperiani i quali hanno sviluppato le loro
teorie epistemologiche a sempre più stretto contatto con la storia della scienza.
Nel capolavoro del 1962, La struttura delle rivoluzioni scientifiche, si sostiene che la
comunità scientifica si costituisce attraverso l’accettazione di teorie che Kuhn chiama
paradigmi:
Definizione del Con tale termine [«paradigma»] voglio indicare
concetto di conquiste scientifiche universalmente
paradigma riconosciute, le quali, per un certo periodo,
forniscono un modello di problemi e soluzioni
accettabili a coloro che praticano un certo campo
di ricerche.
Kuhn, in realtà, usa in più di un senso il termine paradigma, tuttavia egli stesso specifica
che la funzione del paradigma, oggi assolta dai manuali scientifici (per mezzo dei quali il
giovane studente viene iniziato alla comunità scientifica), ieri era assolta dai classici della
scienza quali la Fisica di Aristotele, l’Almagesto di Tolomeo, i Principia e l’Ottica di
Newton, l’Elettricità di Franklin, la Chimica di Lavoisier o la Geologia di Lyell. Per cui
l’astronomia tolemaica (o quella copernicana), la dinamica aristotelica (o quella
newtoniana) sono tutti paradigmi, al pari del fissismo di Linneo, della teoria evolutiva di
Darwin o della teoria della relatività di Einstein.
Come una comunità religiosa si riconosce dai dogmi specifici in cui crede, come un partito
politico aggrega i suoi membri attorno a valori e a finalità specifiche, così una teoria
paradigmatica è quella che istituisce una comunità scientifica, la quale, in forza e
all’interno degli assunti paradigmatici, effettuerà quella che Kuhn chiama scienza
normale:
La scienza normale è uno strenuo e devoto tentativo di forzare la natura entro le caselle
concettuali fornite dall’educazione
professionale, [… è] una ricerca stabilmente fondata su
L’idea di scienza uno o più risultati raggiunti dalla scienza del passato, ai
normale quali una particolare comunità scientifica, per un certo
periodo di tempo, riconosce la capacità di costituire il
fondamento della sua prassi ulteriore.

Questa prassi ulteriore – la scienza normale – sta nel tentare di realizzare le promesse del
paradigma, determinando i fatti rilevanti (per il paradigma), confrontando (attraverso, per
esempio, misure sempre più esatte) i fatti con la teoria, articolando i concetti della teoria
stessa, estendendo i campi di applicazione della teoria. Fare scienza normale vuol dire
dunque risolvere rompicapo (puzzles), cioè problemi definiti dal paradigma, emergenti dal
e rientranti nel paradigma, per cui il fallimento della soluzione di un rompicapo non viene
visto come un fallimento del paradigma, quanto piuttosto come un fallimento del
ricercatore, il quale non ha saputo risolvere una questione per la quale il paradigma dice (e
promette) che una soluzione c’è. Si tratta di una situazione analoga a quella del giocatore
di scacchi, il quale, quando non sa risolvere un problema e perde, è perché non è bravo e
non perché le regole degli scacchi non funzionano.
La scienza normale è pertanto cumulativa (si costruiscono strumenti più potenti, si
effettuano misure più esatte, si precisano i concetti della teoria, si estende la teoria ad altri
campi ecc.) e lo scienziato normale non cerca la novità. E tuttavia la novità dovrà apparire
necessariamente. Ciò per la ragione che l’articolazione teorica ed empirica del paradigma
aumenta il contenuto informativo della teoria e quindi la espone al rischio della smentita
(difatti, più si dice e più si rischia di sbagliare; chi non dice niente non sbaglia mai; se si
dice poco si rischia di fare pochi errori). Tutto questo rende conto di quelle anomalie che,
a un certo momento, la comunità scientifica si trova a fronteggiare e che, resistendo ai
reiterati assalti delle assunzioni paradigmatiche, determinano la crisi del paradigma.
Con la crisi del paradigma inizia il periodo di scienza straordinaria: il paradigma va
soggetto a un processo di sfocamento, i dogmi vengono messi in dubbio e, di
conseguenza, si allentano le regole che governano la ricerca normale. In breve, messi di
fronte ad anomalie, gli scienziati perdono la fiducia nella teoria che prima avevano
abbracciato; e la perdita di un solido punto di partenza si esprime nel ricorso alla
discussione filosofica sui fondamenti e sulla metodologia.
Questi sono i sintomi della crisi, la quale cessa allorché dal crogiuolo di quel periodo di
ricerca sgangherato che è la scienza straordinaria riesce a emergere un nuovo paradigma
sul quale si articolerà di nuovo quella scienza normale, che, a sua volta, porterà, dopo un
periodo di tempo magari abbastanza lungo, a nuove anomalie e così via.

Le rivoluzioni scientifiche

Kuhn descrive il passaggio a un nuovo paradigma (dall’astronomia tolemaica a quella


copernicana, per esempio) come un riorientamento gestaltico: quando abbraccia un nuovo
paradigma, la comunità scientifica maneggia, per esempio, lo stesso numero di dati di
prima, ma ponendoli in relazioni differenti da prima. E inoltre il passaggio da un
paradigma a un altro è quanto costituisce, per Kuhn, una rivoluzione scientifica.
Ma – e questo è uno dei problemi più scottanti suscitati da Kuhn – come avviene il
passaggio da un paradigma a un altro? Questo passaggio si ha per motivi razionali oppure
no?
Ebbene, Kuhn sostiene che paradigmi successivi ci dicono cose differenti intorno agli
oggetti che popolano l’universo e sul comportamento degli oggetti stessi, e precisa:
Il passaggio da un Proprio perché è un passaggio tra
paradigma a uno incommensurabili, il passaggio da un paradigma
opposto è un a uno opposto non può essere realizzato con un
passaggio tra passo alla volta, né imposto dalla logica o da una
incommensurabili esperienza neutrale. Come il riorientamento
gestaltico, esso deve compiersi tutto in una volta
(sebbene non in un istante) oppure non si
compirà affatto.
E, allora, forse ha ragione Max Planck, il quale nella sua Autobiografia ebbe a osservare
con tristezza che «una nuova verità scientifica non trionfa convincendo i suoi oppositori e
facendo loro vedere la luce, ma piuttosto perché i suoi oppositori alla fine muoiono, e
cresce una nuova generazione abituata a essa»? In realtà, afferma Kuhn,
il trasferimento della fiducia da un paradigma a un altro è un’esperienza di
conversione che non può essere imposta con la forza.
Ma allora: perché, e su quali basi, queste esperienze di conversione? Ecco la risposta di
Kuhn:
Perché gli scienziati I singoli scienziati abbracciano un nuovo
abbracciano un paradigma per ogni genere di ragioni, e di solito
nuovo paradigma per parecchie ragioni allo stesso tempo. Alcune
di queste ragioni – per esempio, il culto del sole
che contribuì a convertire Keplero al
copernicanesimo – si trovano completamente al di fuori della sfera della scienza.
Altre ragioni possono dipendere da idiosincrasie autobiografiche e personali.
Persino la nazionalità o la precedente reputazione dell’innovatore e dei suoi maestri
può talvolta svolgere una funzione importante. […] Probabilmente la pretesa più
importante avanzata dai sostenitori di un nuovo paradigma è quella di essere in
grado di risolvere i problemi che hanno portato il vecchio paradigma alla crisi.
Questa pretesa, quando può venire avanzata legittimamente, costituisce spesso
l’argomentazione a favore più efficace.
Inoltre, talvolta l’accettazione di un nuovo paradigma non è dovuta al fatto che esso
risolve i problemi che il vecchio paradigma non riesce a risolvere, ma a promesse che si
avverano in altri campi. E ci sono anche ragioni estetiche a indurre uno scienziato o un
gruppo ad accettare un paradigma. Tuttavia, afferma Kuhn:
Quando la Nei dibattiti sui paradigmi non si discutono
decisione tra forme realmente le relative capacità nel risolvere i
alternative di fare problemi, sebbene, per buone ragioni, vengono
scienza viene presa adoperati di solito termini che vi si riferiscono. Il
sulla base della punto in discussione consiste invece nel decidere
fede quale paradigma debba guidare la ricerca in
futuro, su problemi molti dei quali nessuno dei
due competitori può ancora pretendere di
risolvere completamente. Bisogna decidere tra
forme alternative di fare attività scientifica e, date le circostanze, una tale decisione
deve essere basata più sulle promesse future che sulle conquiste passate.
Colui che abbraccia un nuovo paradigma fin dall’inizio, lo fa spesso a dispetto delle
prove fornite dalla soluzione di problemi. Egli deve, cioè, aver fiducia che il nuovo
paradigma riuscirà in futuro a risolvere i molti vasti problemi che gli stanno davanti,
sapendo soltanto che il vecchio paradigma non è riuscito a risolverne alcuni. Una
decisione di tal genere può essere presa soltanto sulla base della fede.

Un nuovo [Perché un paradigma possa trionfare, deve


paradigma si prima conquistare] alcuni sostenitori che lo
impone attraverso svilupperanno fino a un punto in cui molte solide
un progressivo argomentazioni potranno venir prodotte e
spostamento della moltiplicate. Ma anche queste argomentazioni,
fiducia degli quando ci sono, non sono individualmente
specialisti decisive. Dal momento che gli scienziati sono
uomini ragionevoli, l’una o l’altra
argomentazione finirà per persuaderne molti. Ma
non v’è nessuna singola argomentazione che
possa, o debba, persuaderli tutti. Ciò che si verifica non è tanto una unica
conversione di gruppo, quanto un progressivo spostamento della distribuzione della
fiducia degli specialisti.

Lo sviluppo ateleologico della scienza

Ora, però, il passaggio da un paradigma a un altro comporta progresso? Il problema è


complesso:
È soltanto durante i periodi di scienza «normale» che il progresso sembra evidente e
sicuro, [mentre] durante i periodi di rivoluzione, quando le dottrine fondamentali di
un campo sono ancora una volta in discussione, vengono ripetutamente avanzati
dubbi sulla possibilità di una continuazione del progresso qualora venga adottato
questo o quello dei paradigmi che si fronteggiano.
Certo, quando un paradigma si è affermato, i suoi sostenitori guarderanno a esso come a
un progresso; ma, si chiede Kuhn, progresso verso che cosa? In effetti, il processo che si
vede nell’evolversi della scienza è un processo di evoluzione a partire da stadi primitivi,
ma questo non significa che tale processo porti la ricerca sempre più vicina alla verità o
verso qualcosa. Continua quindi a chiedersi Kuhn:
L’evoluzione della Ma è poi necessario che esista un tale scopo?
scienza è analoga Non è possibile render conto sia dell’esistenza
all’evoluzione della scienza che del suo successo in termini di
biologica evoluzione a partire dallo stato della conoscenza
posseduta dalla comunità a ogni dato periodo di
tempo? È veramente d’aiuto immaginare che
esista qualche completa, oggettiva, vera spiegazione della natura e che la misura
appropriata della conquista scientifica è la misura in cui essa ci avvicina a questo
scopo finale? Se impareremo a sostituire l’evoluzione verso ciò che vogliamo
conoscere con l’evoluzione a partire da ciò che conosciamo, nel corso di tale
processo, un gran numero di problemi inquietanti può dissolversi.
Come nell’evoluzione biologica, così nell’evoluzione della scienza, ci troviamo davanti a
un processo che si sviluppa costantemente a partire da stadi primitivi, ma che non tende
verso nessuno scopo.
IMRE LAKATOS E LA METODOLOGIA DEI
PROGRAMMI DI RICERCA SCIENTIFICI

III
La vita e le opere

Imre Lakatos – il cui vero nome era Imre Lipsitz – nasce nel novembre del 1922 a Debrecen, in
Ungheria, da famiglia ebraica. Frequenta il Realgymnasium e si iscrive successivamente all’università di
Debrecen, dove, sotto la guida di Arpad Szabò, frequenta i seminari di filologia greca e latina e di storia
della matematica greca. Qui, conosce colei che sarà la sua prima moglie, Eva Ravesz.
La guerra e l’occupazione nazista lo costringono a interrompere gli studi e le attività di propaganda
che, in un gruppo illegale, conduceva a favore del marxismo. Insieme al padre riesce a scappare, mentre
sua madre, la zia e il nonno vengono deportati e moriranno ad Auschwitz.
Vive sotto falso nome ospite di famiglie non ebree. Cambia per la prima volta il suo nome in Tibor
Molnár. Entra nella resistenza antifascista. A questo periodo risale quell’oscuro episodio che, in seguito,
Lakatos dovrà pagare con i lavori forzati. Pare infatti che nel suo ruolo guida del gruppo, egli abbia
convinto al suicidio Eva Iszak, una giovane antifascista ebrea rumena, la quale, qualora fosse stata
catturata, avrebbe potuto mettere a rischio la vita degli altri tredici membri del gruppo.
Siamo nel 1944: Lakatos si laurea in matematica, fisica e filosofia presso l’università di Debrecen.
Intanto l’Armata rossa entra in Ungheria e Lakatos entra a far parte del partito comunista ufficiale. Si
converte al calvinismo e cambia di nuovo il nome in Imre Lakatos. «Lakatos» è un cognome abbastanza
diffuso in Ungheria e significa «fabbro».
Prosegue i suoi studi presso il famoso Eötvös Collegium a Budapest. Nel frattempo György Lukács
era rientrato da Mosca e Lakatos frequenta i suoi seminari sulla Critica del Giudizio di Kant e sulla
Fenomenologia dello Spirito di Hegel.
Chiamato nel 1947 al ministero della cultura e dell’educazione, si impegna in un progetto di riforma
scolastica. Ottiene in quest’anno il dottorato in filosofia, fisica e matematica, con una dissertazione Sulla
formazione dei concetti scientifici.
Il 1948 è l’anno della svolta stalinista del partito comunista ungherese. In qualità di segretario del
comitato della scienza di partito, Lakatos stila una lista di professori «inaffidabili» da rimuovere e sostituire
con docenti di salda fede marxista. Denuncerà pure l’Eötvös Collegium come «luogo di corruzione» di
giovani che venivano educati «secondo i principi del liberalismo borghese».
Soggiorna a Mosca, dove, a motivo anche del suo carattere e delle sue posizioni critiche, si fa
parecchi nemici. Al suo ritorno a Budapest non gli viene rinnovata la tessera del partito e gli viene tolto
l’appartamento di cui usufruiva in qualità di alto rappresentante del partito.
Inizia a suo carico il processo per il caso del suo sospettato mancato aiuto nei confronti di Eva Iszak.
Interrogato, messo in isolamento e anche torturato, nel 1950 viene per tre anni imprigionato nel campo di
lavoro di Recsk.
Nel 1953 Imre Nagy diventa primo ministro; con la morte di Stalin pare allontanarsi la pressione
sovietica. Nagy chiude i campi di lavoro e Lakatos viene liberato il 3 ottobre. A Budapest trova un lavoro
come traduttore presso l’Accademia ungherese delle scienze. Traduce dall’inglese all’ungherese How to
solve it, il famoso testo in cui György Polya, ungherese emigrato negli Stati Uniti, affronta questioni relative
al come insegnare e fare matematica. Legge le opere di pensatori liberali come Popper e Hayek, le quali
lo liberano anche di quel poco che degli ideali comunisti gli erano rimasti dopo il processo e l’internamento
nel campo di lavoro.
Nel 1955 Lakatos si sposa con Eva Pap, il cui fratello, denunciato dai vecchi compagni di scuola
liberati dai campi di lavoro, si suicida. Nel 1956 si reimmerge nell’attività politica all’interno del Circolo
Petöfi.
Nell’ottobre-novembre 1956 ha luogo la rivoluzione di Ungheria e Lakatos è uno degli autori della
Dichiarazione del comitato nazionale dell’accademia ungherese delle scienze – datata 30 ottobre 1956 –,
dove, tra l’altro, si chiedeva che «la vita scientifica in Ungheria sia libera dalle catene dello stalinismo».

Imre Lakatos


Fugge insieme alla moglie a Vienna. Da Vienna si trasferisce a Cambridge, con l’intento di conseguire
il PhD con Richard B. Braithwaite e Timothy Smiley al King’s College. Ottiene il dottorato con la tesi Saggi
sulla logica della scoperta matematica, pubblicata in parte nel 1964, e successivamente, nel 1976 come
testo rivisto e ampliato con il titolo: Proofs and Refutations (Dimostrazioni e confutazioni).
Del 1962 è il saggio Infinite Regress and the Foundations of Mathematics, consistente in un riesame
critico dei fondamenti della matematica; e sul medesimo argomento stende un altro contributo dal titolo:
Una rinascita dell’empirismo nella recente filosofia della matematica? (1967).
Incontra Karl Popper e frequenta i suoi seminari alla London School of Economics, dove prima come
lecturer e poi, dal 1970, come «Professor of Logic with special reference to the Philosophy of
Mathematics» trascorrerà la sua attività di ricercatore e di docente.
Sempre a Londra incontra e diventa amico di Paul Feyerabend, anch’egli allievo e successivamente
critico di Popper. Essendosi nel frattempo i suoi interessi spostatisi nell’ambito della filosofia delle scienze
fisiche, Lakatos organizza nel 1965, al Bedford College, un Colloquio internazionale su Logica, Filosofia
della matematica e metodo scientifico, di cui cura, insieme ad Alan Musgrave, gli Atti: 1) Problemi nella
filosofia della matematica (1967); 2) Il problema nella filosofia della scienza (1968); 3) Il problema della
logica induttiva (1968); 4) Criticism and The Growth of Knowledge (1970; tr.it.: Critica e crescita della
conoscenza).
Il problema del cambiamento della logica induttiva è del 1968: qui Lakatos critica, da una prospettiva
ancora apparentemente popperiana, la tradizione induttivistica e probabilistica nella trattazione della teoria
della conferma. Ma è nello scritto del 1970 La falsificazione e la metodologia dei programmi di ricerca
scientifici che egli intende «approfondire» la prospettiva popperiana alla luce delle concezioni avanzate da
Kuhn sulla struttura delle rivoluzioni scientifiche.
Nell’altro saggio, del 1971, La storia della scienza e le sue ricostruzioni razionali, Lakatos affronta la
problematica del rapporto tra la filosofia e la storia della scienza. Con lo scritto Popper su demarcazione e
induzione il distacco di Lakatos da Popper risulta chiaramente compiuto.
Lakatos muore, di infarto, all’età di cinquantun anni, il 2 febbraio del 1974.

Dimostrazioni e confutazioni

Proofs and Refutations «è una commedia filosofica intorno a un celebre caso di crescita
della conoscenza matematica: il teorema di Euclide. Il saggio va inteso sullo sfondo della
rinascita dell’euristica matematica teorizzata da Polya e del fallibilismo epistemologico di
Popper. L’obiettivo polemico è il modo tradizionale di presentare e insegnare la
matematica. L’idea di Lakatos è che lo sviluppo di questa disciplina non debba essere
inteso come un processo per accumulazione di verità eterne e immutabili, ma come frutto
di un’attività più emozionante e creativa consistente nell’avanzare congetture, nel tentare
di darne una “dimostrazione”, nel prospettarne una severa critica volta a ricercare i
controesempi sia alla congettura di partenza sia ai vari passi della dimostrazione» (Matteo
Motterlini)
In effetti, con Proofs and Refutations (che richiama il titolo popperiano Conjectures and
Refutations), Lakatos pone sotto tiro quella tradizione, tanto diffusa, secondo cui la
matematica sarebbe una disciplina «autoritaria, infallibile e inconfutabile». E, in tal modo,
Lakatos attacca «la scuola di filosofia matematica che tende a identificare la matematica
con la sua astrazione assiomatico-formale». In realtà, scrive Lakatos,
oggetto di studio della metamatematica è un’astrazione dalla matematica,
un’astrazione che sostituisce a teorie matematiche sistemi formali, a dimostrazioni
certe sequenze di formule ben formate, a definizioni «stratagemmi abbreviativi» che
sono «teoricamente non necessari» ma «tipograficamente convenienti». Questa
astrazione è dovuta a Hilbert, che si proponeva di approntare una potente tecnica
per trattare certi problemi di metodologia della matematica. Nello stesso tempo vi
sono problemi che non rientrano nel dominio delle astrazioni metamatematiche. Tra
questi, tutti i problemi che concernono la matematica informale (inhaltliche) e il suo
sviluppo e tutti i problemi che riguardano la logica concreta della soluzione di
problemi matematici.
Il formalismo è Il formalismo nega lo status della matematica
cieco davanti al alla maggior parte di ciò che comunemente si è
concreto farsi della sempre inteso come matematica e non riesce a
matematica dire nulla sul suo sviluppo. Nessun periodo
«creativo» e pochissimi periodi «critici» delle
teorie matematiche sarebbero ammessi nel
paradiso dei formalisti, ove le teorie matematiche dimorano come serafini, purificate
da tutte le impurità dell’incertezza terrena. Però i formalisti, in genere, lasciano
aperta una piccola porta di servizio per gli angeli caduti: se per qualche «miscuglio
di matematica e qualcos’altro» capita che si riesca a trovare un sistema formale «che
in un certo senso l’includa», allora lo si può anche ammettere.
Newton per esempio, ha dovuto aspettare secoli prima che Peano, Russell e Quine lo
aiutassero a entrare in paradiso; Dirac – scrive Lakatos – è stato più fortunato: Schwartz
ha salvato la sua anima mentre era ancora in vita. In sostanza,
I danni recati dal positivismo il «formalismo» è un baluardo della filosofia del
logico alla comprensione della
positivismo logico. Un asserto, secondo il
storia e della filosofia della
matematica positivismo logico, è significante solo se è o
«tautologico» o empirico. Dal momento che la
matematica informale non è né tautologica né empirica, deve essere senza
significato, un mero nonsenso. I dogmi del positivismo logico hanno recato danno sia
alla storia sia alla filosofia della matematica.
Proprio per correre ai ripari, Lakatos, attraverso un caso concreto (la congettura di Euler),
mostra come la ricerca matematica procede sulla contorta strada dei tentativi e delle
confutazioni. Le teorie matematiche esistono, ed esistono come soluzioni di problemi. Di
conseguenza, per capire le teorie matematiche, occorre comprendere i problemi che esse
intendevano risolvere e i problemi che di fatto sono riuscite a risolvere. Ma i problemi si
comprendono solo se si riesce a ricostruire la situazione problematica in cui il problema è
originato e il modo in cui esso si è eventualmente trasformato.
Dimostrazioni e confutazioni è un libro inteso a dimostrare come si fa matematica, come si
insegna matematica e come si ricostruisce un pezzo di storia della matematica. Nella sua
struttura dialogica (il dialogo si svolge in una classe che si interessa a un problema: «esiste
una relazione tra il numero dei vertici V, il numero degli spigoli S e il numero delle facce
F di un poliedro – in particolare un poliedro regolare – analogo alla relazione banale che
intercorre tra il numero dei vertici V e i lati S di un poligono, cioè che vi sono tanti lati
quanti vertici: V = S?»), il libro è una «storia razionalmente ricostruita o “distillata” di una
ricerca effettiva, e vuol riflettere la dialettica della storia».

Tre tipi di falsificazionismo

L’idea di fondo dell’immagine della scienza proposta da Lakatos è che la scienza è, è stata
e dovrebbe essere una competizione tra programmi di ricerca rivali. E questa idea
caratterizza, a suo avviso, il falsificazionismo metodologico sofisticato, concezione che
Lakatos sviluppa sulla scia di Popper. Il falsificazionismo metodologico sofisticato si
distingue dal falsificazionismo dogmatico e dal falsificazionismo metodologico ingenuo.
Il falsificazionismo dogmatico consiste nell’idea secondo cui la scienza si sviluppa
attraverso congetture ardite falsificazioni infallibili. Senonché, fa presente Lakatos, simile
idea – fatta propria da alcuni scienziati e propagata anche da certi filosofi come Alfred
Ayer – non è l’idea di Popper, ed è sbagliata. È sbagliata perché la base empirica della
scienza (vale a dire i protocolli, le proposizioni di osservazione) non è certa, per cui non si
danno falsificazioni infallibili o incontrovertibili: le nostre falsificazioni possono
anch’esse essere sbagliate. E questo ce lo attestano sia la logica sia la storia della scienza.
Da parte sua, il falsificazionismo metodologico ingenuo corregge l’errore dei
falsificazionisti dogmatici, e sostiene (come Popper aveva messo già bene in luce ne La
logica della scoperta scientifica) che la base empirica della scienza non è infallibile, come
non sono incontrovertibili le ipotesi ausiliarie che servono per il controllo di quella ipotesi
che abbiamo proposto come tentativo di soluzione del problema che ci interessa risolvere.
Tuttavia, dice Lakatos, nonostante i suoi meriti, anche il falsificazionismo metodologico
ingenuo è insoddisfacente, giacché concepisce lo sviluppo della scienza come una serie di
successivi duelli tra una teoria e i fatti, mentre – per Lakatos – le cose non stanno affatto in
questo modo, per la ragione che la lotta tra il teorico e il fattuale avviene sempre per lo
meno a tre: tra due teorie in competizione e i fatti. Tutto ciò renderebbe conto del fatto che
una teoria viene scartata non quando qualche fatto la contraddice, ma solo quando la
comunità scientifica ha a disposizione una teoria migliore della precedente: così, per
esempio, la meccanica di Newton viene respinta solo dopo che si è venuti in possesso
della teoria di Einstein.
Finora abbiamo parlato di teorie (di teorie in competizione). Ma Lakatos, a dire il vero,
parla di programmi di ricerca scientifici. Per capire cos’è un programma di ricerca
scientifico basterà pensare al meccanicismo di Cartesio, o a quello di Newton, alla teoria
evolutiva di Darwin, e, prima di queste cose, al copernicanesimo. Un programma di
ricerca è una successione di teorie, T1, T2, T3, T4 che si sviluppano da un nucleo centrale
che, per decisione metodologica, si mantiene infalsificabile; è così che un programma può
mostrare il suo valore, la sua fecondità e la sua progressività nei confronti di un altro
programma. Non è lecito far morire una teoria di malattia infantile. E una buona teoria,
per svilupparsi, ha bisogno di tempo. Dunque: la storia della scienza è e dovrebbe essere
una storia di programmi di ricerca in competizione. Questo è il nocciolo della concezione
lakatosiana della scienza e della storia della scienza, concezione che, peraltro, accentua
l’interrelazione tra le varie epistemologie e la storiografia della scienza, nel senso
soprattutto che questa può retroagire, secondo Lakatos, come arma critica, sulle varie idee
di scienza o epistemologie.

Programmi di ricerca scientifici

Il nucleo centrale della riflessione epistemologica di Lakatos, incentrata sull’evolversi


delle scienze naturali, è dato quindi dall’idea di programma di ricerca scientifico. Questa
idea dovrebbe distinguere la posizione di Lakatos sia da Kuhn sia da Popper. Difatti,
secondo lui (La storia della scienza e le sue ricostruzioni razionali),
Lakatos critico di la Logik der Forschung, nel suo insieme, è
Popper aridamente astratta e altamente astorica. Là dove
Popper si arrischia a fare osservazioni sulla
falsificabilità delle maggiori teorie scientifiche, o
cade in qualche madornale equivoco logico o distorce la storia in modo che si adatti
alla sua teoria della razionalità.
D’altro canto (La falsificazione e la metodologia dei programmi di ricerca scientifici),
Lakatos critico di secondo la concezione di Kuhn la rivoluzione
Kuhn scientifica è irrazionale, è materiale adatto per la
psicologia della folla. […] Per Kuhn il
mutamento scientifico – da un «paradigma» a un
altro – è una conversione mistica che non è, e non può essere, governata da regole
razionali e che ricade totalmente nell’ambito della psicologia (sociale) della
scoperta. Il mutamento scientifico è una specie di conversione religiosa.
Lakatos, da parte sua, si muove sì nella problematica e nell’atmosfera del
falsificazionismo di Popper e, per di più, influenzato anche da Kuhn (per esempio
dall’idea della «funzione del dogma nella ricerca scientifica» e dall’altra idea del
«progresso attraverso le rivoluzioni»), tuttavia argomenta senza lasciarsi incapsulare né
dall’uno né dall’altro pensatore, e si muove con grande agilità e spregiudicatezza. Per
Lakatos
è una successione di teorie e non un’unica teoria che è valutata come scientifica o
pseudoscientifica.
Ora, una serie di teorie può essere progressiva teoricamente e/o empiricamente:
Cos’è una serie Diciamo che [una] serie di teorie è progressiva
progressiva di teoricamente (o «che costituisce uno slittamento-
teorie di-problema progressivo teoricamente») se ogni
nuova teoria ha contenuto empirico eccedente
rispetto alle teorie che la precedono, ossia, se
predice qualche fatto nuovo, fino a quel momento inaspettato. Diciamo che una serie
di teorie progressiva teoricamente è anche progressiva empiricamente (o che
«costituisce uno slittamento-di-problema progressivo empiricamente») se parte di
questo contenuto empirico eccedente è anche, in certa misura, corroborato, ossia, se
ogni nuova teoria conduce alla scoperta reale di qualche fatto nuovo.
Ora, però, questa serie di teorie,
questa continuità si sviluppa da un genuino programma di ricerca adombrato
all’inizio. Questo programma consiste di regole metodologiche: alcune indicano
quali vie evitare (euristica negativa), altre quali vie perseguire (euristica positiva).
Un programma di ricerca, dunque, muove da decisioni metodologiche che individuano
alcune ipotesi da considerare «non falsificabili» proprio in base a un decreto
metodologico. Le ipotesi non falsificabili costituiscono il nucleo (hard-core) del
programma, e
La funzione tutti i programmi scientifici di ricerca possono
dell’euristica essere caratterizzati dal loro «nucleo». […]
negativa L’euristica negativa del programma ci impedisce
di rivolgere il modus tollens contro questo
«nucleo». Dobbiamo invece usare la nostra
ingegnosità per articolare o anche inventare delle «ipotesi ausiliarie», che formino
una cintura protettiva intorno al nucleo e dobbiamo rivolgere il modus tollens contro
quest’ultimo nuovo obiettivo. Questa cintura protettiva di ipotesi ausiliarie deve
resistere all’attacco dei controlli, essere adattata e riadattata, o anche
completamente sostituita, per difendere il nucleo così consolidato. Un programma di
ricerca ha successo se tutto ciò conduce a uno slittamento progressivo del problema:
non ha successo se conduce a uno slittamento regressivo del problema.
Per questo un programma di ricerca (pensare a quello di Newton) si può sviluppare «in un
mare di anomalie» (e questo, dice Lakatos, è il caso del programma di Prout) o, come nel
caso di Bohr, procedere «su fondamenti incoerenti». E solo quando le successive
modificazioni della cintura protettiva non riescono più a predire fatti nuovi, allora il
programma si mostra come regressivo.
Fino a quando un Tutto ciò ci suggerisce che non si deve scartare
programma di un programma di ricerca sul nascere soltanto
ricerca va protetto perché non è riuscito ancora a superare un
potente programma rivale. Non si dovrebbe
abbandonarlo se, nella supposizione che non
abbia rivali potenti, esso costituisse uno slittamento-di-problemi «progressivo» […].
Finché un programma di ricerca al suo nascere può essere ricostruito razionalmente
come uno slittamentodi-problema progressivo, dovrebbe essere protetto per un certo
tempo da un potente rivale stabilizzato.
La scienza, pertanto, è – secondo Lakatos – «un campo di battaglia per programmi di
ricerca piuttosto che per teorie isolate»:
La scienza matura consiste di programmi di ricerca nei quali vengono anticipati non
soltanto fatti nuovi, ma, in senso importante, anche nuove teorie ausiliari; la scienza
matura – a differenza dal rozzo schema per prova-ed-errore – ha potere «euristico».
In questo senso si vede, per Lakatos, la debolezza di programmi che, come il marxismo e
il freudismo, «immancabilmente modellano le loro reali teorie ausiliarie sulla scia di
alcuni fatti, senza al tempo stesso anticiparne altri (Che fatto nuovo ha predetto il
marxismo, diciamo, dal 1917?)».
Queste, per summa capita, sono le teorie di Lakatos sulla crescita della conoscenza.
Ebbene, tali teorie sono normative o descrittive? A tale domanda Lakatos risponde che il
quadro concettuale con cui egli tratta la continuità della scienza è normativo; e che, d’altro
canto, questo quadro epistemologico normativo funziona come programma di ricerca
storiografico (normativo), in base a cui decidere cosa ricostruire come storia interna e
cosa come storia esterna della scienza.

I critici di Lakatos

Le teorie di Lakatos, intrecciatesi assieme a quelle di Popper, di Kuhn, di Feyerabend e di


altri epistemologi contemporanei, sono oggi al centro della discussione e si stanno
mostrando molto feconde di problemi e di stimoli per la ricerca storiografica.
Ciò anche se Popper (dal quale Lakatos parte per sviluppare autonomamente le proprie
teorie) ha ribadito, contro Lakatos, che falsificare una teoria non significa abbandonarla o
rigettarla o smettere di lavorarvi sopra (cfr. Popper, Lakatos on the Equal Status of
Newton’s and Freud’s Theories, 1974), e che Lakatos ha frainteso le sue (di Popper) teorie;
teorie che Popper, nel saggio (ora citato) scritto in replica a Lakatos, riafferma
puntualmente.
Da parte sua, Kuhn (Riflessioni sui miei critici) ha fatto notare che Lakatos «deve
specificare […] i criteri che possono essere usati in un dato momento per distinguere un
programma di ricerca regressivo da uno progressivo e così via. Altrimenti non ci ha detto
un bel nulla».
E Feyerabend (Consolazioni per lo specialista) ha scritto che gli «standard di Lakatos
posseggono efficacia pratica solo se combinati con un limite di tempo (quel che appare
uno slittamento-di-problema regressivo, può essere l’inizio di un periodo molto più lungo
di progresso»). E siccome, secondo Feyerabend, Lakatos non specifica questi limiti di
tempo, i suoi standard sarebbero solo ornamenti verbali. Questa la risposta che Lakatos
(ne La storia della scienza e le sue ricostruzioni razionali) dà a tali obiezioni:
Ci si può razionalmente attenere a un programma in fase regressiva fino a che non è
superato da un programma rivale e anche dopo di un programma con un fermo
consiglio euristico su cosa fare. È perfettamente razionale giocare un gioco
d’azzardo: ciò che è irrazionale è illudere se stessi sull’azzardo.
L’EPISTEMOLOGIA ANARCHICA DI PAUL
FEYERABEND

IV
L’anarchia epistemologica in funzione del progresso

Paul Karl Feyerabend (Vienna, 1924 - Genolier, 1994) ha scritto il suo libro Contro il
metodo (2a ed. 1975) nella persuasione che
l’anarchismo, pur non essendo forse la filosofia politica più attraente, è senza dubbio
una eccellente medicina per l’epistemologia e per la filosofia della scienza.
Per Feyerabend, occorre abbandonare la chimera secondo cui le regole «ingenue e
semplicistiche» proposte dagli epistemologi renderebbero conto di quel «labirinto di
interazioni» offerto dalla storia reale:
la storia in generale, la storia delle rivoluzioni in particolare, è sempre più ricca di
contenuto, più varia, più multilaterale, piu viva, piu «astuta», di quanto possano
immaginare anche il miglior storico e il migliore metodologo.
Di conseguenza, l’anarchismo epistemologico di Feyerabend consiste nella tesi per cui
In cosa consiste l’anarchismo l’idea di un metodo che contenga principi fermi,
metodologico
immutabili e assolutamente vincolanti come
guida nell’attività scientifica si imbatte in
difficoltà considerevoli quando viene messa a confronto con i risultati della ricerca
storica. Troviamo infatti che non c’è una singola norma, per quanto plausibile e per
quanto saldamente radicata nell’epistemologia, che non sia stata violata in qualche
circostanza. Diviene evidente anche che tali violazioni non sono eventi accidentali,
che non sono il risultato di un sapere insufficiente o di disattenzioni che avrebbero
potuto essere evitate. Al contrario, vediamo che tali violazioni sono necessarie per il
progresso scientifico. In effetti, uno fra i caratteri che più colpiscono delle recenti
discussioni sulla storia e la filosofia della scienza è la presa di coscienza del fatto
che eventi e sviluppi come l’invenzione dell’atomismo nell’antichità, la rivoluzione
copernicana, l’avvento della teoria atomica moderna (teoria cinetica; teoria della
dispersione; stereochimica; teoria quantistica), il graduale emergere della teoria
ondulatoria della luce si verificarono solo perché alcuni pensatori o decisero di non
lasciarsi vincolare da certe norme metodologiche «ovvie» o perché
involontariamente le violarono.

Paul Karl Feyerabend

Una siffatta libertà di azione non è, secondo Feyerabend, soltanto un fatto della storia della
scienza:
Talvolta è Esso è sia ragionevole sia assolutamente
necessario violare necessario per la crescita del sapere. Più
anche le norme specificamente si può dimostrare quanto segue:
metodologiche più data una norma qualsiasi, per quanto
fondamentali e «fondamentale» o «necessaria» essa sia per la
necessarie scienza, ci sono sempre circostanze nelle quali è
opportuno non solo ignorare la norma, ma
adottare il suo opposto. Per esempio, ci sono
circostanze nelle quali è consigliabile introdurre,
elaborare e difendere ipotesi ad hoc, o ipotesi che contraddicano risultati
sperimentali ben stabiliti e universalmente accettati, o ipotesi il cui contenuto sia
minore rispetto a quello delle ipotesi alternative esistenti e adeguate empiricamente,
oppure ancora ipotesi autocontraddittorie ecc. Ci sono addirittura circostanze – le
quali si verificano anzi piuttosto spesso – in cui il ragionamento perde il suo aspetto
orientato verso il futuro diventando addirittura un impaccio al progresso.

L’anarchia epistemologica e la storia della scienza

A supporto della sua metodologia anarchica, Feyerabend adduce un caso storico.


Il caso Galileo a Lo sviluppo del punto di vista copernicano da
conferma Galileo al XX secolo è un esempio perfetto della
dell’epistemologia situazione che mi propongo di descrivere. Il
anarchica punto di partenza è costituito da una forte
convinzione che contrasta con la ragione e
l’esperienza contemporanea. La convinzione si
diffonde e trova sostegno in altre convinzioni, che sono altrettanto irragionevoli se
non più (la legge d’inerzia, il telescopio). La ricerca viene ora deviata in altre
direzioni, si costruiscono nuovi tipi di strumenti, i dati dell’osservazione e
dell’esperimento vengono connessi a teorie in modi nuovi finché sorge un’ideologia
abbastanza ricca da fornire argomentazioni indipendenti per ogni singolo dato e
abbastanza mobile per trovare argomentazioni del genere ogni qualvolta esse
sembrino richieste. Oggi possiamo dire che Galileo era sulla strada giusta, poiché la
sua tenace ricerca di quella che un tempo sembrava una stramba cosmologia ha
creato oggi i materiali necessari per difenderla contro tutti coloro che sono disposti
ad accettare un’opinione solo se essa viene espressa in un certo modo e che prestano
fede ad essa solo se contiene certe frasi magiche, designate come protocolli o
rapporti d’osservazione. E questa non è un’eccezione, bensì il caso normale: le
teorie diventano chiare e ragionevoli solo dopo che parti incoerenti di esse sono state
usate per molto tempo. Una tale anticipazione parziale, irragionevole, assurda, in
violazione di ogni metodo, risulta quindi un presupposto inevitabile della chiarezza e
del successo empirico.
Dunque: Feyerabend propone la tesi secondo cui violazioni alle norme del metodo non
sono solo un dato di fatto, «ma sono necessarie per il progresso scientifico»; cerca di
avallare la sua tesi parlando del caso storico dello sviluppo del copernicanesimo da
Galileo al XX secolo – caso che tratta molto diffusamente nel suo libro; e conclude
affermando quanto segue:
Difesa del principio: È chiaro, quindi, che l’idea di un metodo fisso, o
Qualsiasi cosa può di una teoria fissa della razionalità, poggia su
andar bene una visione troppo ingenua dell’uomo e del suo
ambiente sociale. Per coloro che non vogliono
ignorare il ricco materiale fornito dalla storia, e
che non si propongono di impoverirlo per compiacere ai loro istinti più bassi, alla
loro brama di sicurezza intellettuale nella forma della chiarezza, della precisione,
dell’«obiettività», della «verità», diventerà chiaro che c’è un solo principio che
possa essere difeso in tutte le circostanze e in tutte le fasi dello sviluppo umano. È il
principio: qualsiasi cosa può andar bene.

La provocazione di Contro il metodo

Il libro di Feyerabend intende essere deliberatamente provocatorio nei confronti degli


sforzi sia di Lakatos sia soprattutto di Popper di costruire un ordinato apparato di regole in
grado di guidare le procedure e le decisioni dello scienziato militante. Tuttavia,
Feyerabend critica un Lakatos e soprattutto un Popper spesso costruiti su misura per i suoi
bersagli. Così, per esempio, Feyerabend dice che, se vogliamo progresso nella scienza,
occorre talvolta non seguire e addirittura andar contro alla regola per la quale «non
bisogna introdurre ipotesi ad hoc».
Senonché Popper non è così ingenuo come Feyerabend pensa, giacché Popper è chiaro sul
fatto che ipotesi oggi ad hoc possono diventare controllabili (e quindi non ad hoc) domani,
come è accaduto per l’ipotesi del neutrino di Pauli, per cui – scrive Popper – non
dobbiamo «pronunciare un editto troppo severo contro le ipotesi ad hoc». Feyerabend
sostiene:
Ci sono circostanze nelle quali è consigliabile introdurre, elaborare e difendere […]
ipotesi il cui contenuto sia minore rispetto a quello delle ipotesi alternative esistenti e
adeguate empiricamente.
Questa contro-norma verrebbe a opporsi, nelle intenzioni di Feyerabend, alla norma
popperiana secondo cui è preferibile una teoria con più contenuto a una teoria con minor
contenuto.
Ora, anche qui Feyerabend semplifica arbitrariamente le cose, giacché nessuno vieta di
abbracciare e lavorare su una teoria che oggi ha minor contenuto informativo accertato di
un’altra teoria, ma che ne ha uno maggiore ancora da controllare, essendo molto ricca e
logicamente più promettente della teoria in auge di conseguenze empiricamente
controllabili. Per Feyerabend, inoltre,
ci sono circostanze nelle quali è consigliabile introdurre, elaborare e difendere […]
ipotesi che contraddicono risultati sperimentali ben stabiliti e universalmente
accettati.
Questa contro-regola di Feyerabend si rivolge contro la regola popperiana secondo cui una
teoria dovrebbe ritenersi confutata se esistono dati sperimentali ben stabiliti che la
contraddicono.
Senonché è stato lo stesso Popper a mettere l’accento sul fatto che non bisogna confondere
la confutazione di una teoria con il suo rifiuto, «cioè con la necessità per la gente di
abbandonare la teoria, e più specificamente di smettere di lavorare su di essa. In effetti,
mentre la prima (la confutazione) è, data l’accettazione di uno stato confutante, una
questione logica, la seconda è una questione di metodologia, e dipende tra altre cose da
quali teorie alternative sono disponibili. (Spesso ho sottolineato l’urgenza di lavorare con
più di una ipotesi in connessione sia con la falsificazione – “ipotesi falsificanti” –, sia con
la crescita della scienza in generale)».
E ancora: Feyerabend ha sostenuto la non confrontabilità (e quindi la non applicabilità
della teoria della verisimiglianza di Popper) tra teorie o punti di vista cosmologici molto
generali, cosicché, per esempio, la meccanica di Newton e la teoria della relatività di
Einstein sarebbero incommensurabili in quanto nella meccanica newtoniana forme, masse,
volumi e intervalli di tempo sarebbero proprietà fondamentalissime di oggetti fisici,
mentre per la teoria della relatività «forme, masse, volumi e intervalli di tempo sono
relazioni tra oggetti fisici e sistemi di coordinate che possono cambiare, senza alcuna
interferenza fisica, quando sostituiamo un sistema di coordinate con un altro».
Ebbene, a questo proposito, Popper ha fatto rilevare che, mentre due visioni religiose o
filosofiche del mondo sono incommensurabili, due teorie, che tentano di risolvere la stessa
famiglia di problemi, sono invece commensurabili, come si dà tra la teoria di Newton e
quella di Einstein.
LARRY LAUDAN E LA METODOLOGIA DELLE
TRADIZIONI DI RICERCA

V
Lo scopo della scienza sta nel risolvere problemi

L’idea centrale di Larry Laudan (nato ad Austin, nel Texas, nel 1941) è che
la scienza mira fondamentalmente alla soluzione dei problemi.
Ne Il progresso scientifico (1977) Laudan ha delineato «le implicazioni, per la storia e la
filosofia della scienza, del punto di vista che concepisce la scienza soprattutto come
un’attività impegnata nella soluzione dei problemi». Per questo, gli assunti basilari del
modello di sviluppo della scienza che Laudan propone sono piuttosto semplici:
1 Il problema risolto, empirico o concettuale, è l’unità di base del progresso scientifico.
2 Scopo della scienza è quello di massimizzare la portata dei problemi empirici risolti e di
ridurre la portata dei problemi empirici anomali e di quelli concettuali non risolti. Di
conseguenza:
Una teoria viene valutata in Ogni volta che modifichiamo una teoria o la
base alla sua capacità di
risolvere problemi
sostituiamo con un’altra teoria, questa
innovazione costituisce un progresso se e solo se
la teoria modificata o la nuova teoria è più
efficiente nel risolvere problemi […], di quanto lo sia la precedente dottrina.
Dunque: il controllo cognitivo fondamentale di ogni teoria consiste nel determinare la sua
adeguatezza nella soluzione di problemi empirici e concettuali. Ma, parlando di teorie,
Laudan precisa due cose:
a la valutazione delle teorie è qualcosa di comparativo, giacché mis