Sei sulla pagina 1di 107

CLAUDIO 

PIZZI
LEZIONI DI FILOSOFIA DELLA SCIENZA

                                             a. a. 2010­2011
I. IL POSITIVISMO LOGICO. 
 
§1. Dell'   epistemologia contemporanea, a differenza che di altre discipline, si 
può indicare una data di   nascita abbastanza precisa, il 1925. In quest’anno un 
fisico   viennese   di   grande   cultura   filosofica,   Moritz   Schlick   (1882­1936), 
cominciò a usare  il salotto di casa sua per ospitare un gruppo di discussione a 
cui   partecipavano   colleghi   della   generazione   più   giovane,   di   varia   estrazione 
culturale. Al centro di molte discussioni erano  le idee contenute in un testo di 
recente   pubblicazione,   il  Tractatus   Logico­Philosophicus.   L’autore   di   questo 
testo   atipico,   che   si   presentava   come   una   serie   di   aforismi   numerati,   era   un 
giovane   viennese,   rampollo   di   una   ricchissima   e   blasonata   famiglia,   Ludwig 
Wittgenstein.  Partito volontario per la Prima Guerra Mondiale, Wittgenstein era 
stato   fatto   prigioniero   dagli   italiani   a   Monte   Cassino,   riuscendo   però   a 
completare il manoscritto  nella forma che sarebbe diventata definitiva. 
       E'   singolare   che l’autore del libro che era al centro di tanto interesse non 
abbia mai preso parte alle riunioni del circolo pur mantenendo i contatti con 
alcuni     esponenti   come  Friedrich  Waismann.     Questo  si   può  spiegare  con  la 
scontrosità del suo carattere, ma bisogna anche tener conto che Wittgenstein. 
riteneva di non aver niente da aggiungere a quanto scritto nel suo libro, con cui 
pensava   di   aver   risolto   in   modo   definitivo   tutti   i   problemi   principali   della 
filosofia. Al termine di questa impresa filosofica, come lui stesso dichiarava alla 
fine della sua trattazione, non poteva esserci altro che il silenzio.
     Le riunioni del circolo – che prese il nome di  Ernest Mach Verein  – erano 
molto animate.   I filosofi   nel senso tradizionale del termine erano per   lo più 
assenti ma partecipavano   matematici come Hans Hahn e saltuariamente Kurt 
Gödel (che era boemo), sociologi come Otto Neurath e Felix Kaufmann, fisici 
come Philipp Frank.
    Nel 1926  Rudolf Carnap (1891­1970), che era docente a Jena, fu chiamato 
all’Università di Vienna. Il contributo di Carnap, che sarebbe diventato in 
seguito la figura più importante  del movimento, fu importante anche  per la sua 
capacità di  mantenere i contatti con gli ambienti tedeschi. Con qualche anno di 
ritardo infatti a Berlino si era costituito un circolo ispirato alle stesse idee, i cui 
maggiori esponenti furono Hans Reichenbach (1891­1953), Carl Gustav Hempel 
(1903­1992), Richard von Mises (1885­1953), Walter Dusbislav(1895­1937). 
Nel giro di pochi anni circoli analoghi vennero aperti in Polonia (circolo di 
Leopoli – Varsavia), in Inghilterra, dove aveva lasciato il segno la lezione di 
Russell, e in seguito negli Stati Uniti  dove emerse rapidamente la figura di 
W.V.O. Quine.
 
§2.  La corrente di  pensiero che nasceva in questo modo è stata battezzata in vari 
modi   :   positivismo   logico,   neopositivismo,   neoempirismo,   empirismo   logico, 
empirismo   scientifico.   Comunque   lo   si   voglia   chiamare,   è     unanime   il 
riconoscimento che le personalità che lo costituivano erano di statura eccezionale 
e che altrettanto eccezionale fu la svolta che riuscì a imprimere alla riflessione 
sulla scienza. Tanto per cominciare un punto caratterizzante della nuova corrente 
di pensiero è che   la   filosofia non doveva essere concepita come un corpo di 
dottrine o di  principi ma come un’attività. Scopo di questa attività doveva essere 
l’ analisi logica del linguaggio, cioè l’analisi del linguaggio compiuta mediante 
lo strumento della logica. Oggetto primario della ricerca erano le nozioni basilari 
della   scienza   (legge,   teoria,   esperimento,   …),   che   venivano   sottoposte   ad   un 
esame   che   Carnap   chiamava   di  esplicazione.  Una   nozione   vaga   e   intuitiva 
espressa nel linguaggio ordinario,p.es di teoria o di probabilità, doveva essere 
esplicata,   e   cioè   rimpiazzata   da   un   suo   sostituto   rigoroso   espresso   entro   un 
linguaggio ideale, esente dalle impurità del linguaggio ordinario. Lo strumento 
per condurre questa attività esplicativa era una scienza rigorosa che era stata 
fondata pochi decenni addietro da matematici come Boole, Frege e Russell, la 
logica matematica. Dunque qui vediamo un altro elemento di novità. Per quanto 
fosse una metascienza, essendo un’ attività esercitata mediante metodi scientifici, 
la filosofia così intesa  si proponeva essa stessa come una scienza. 
    Non c’è dubbio che l’origine del nocciolo di questa idea sia stato il Tractatus 
di   Wittgenstein. Vediamo dunque per sommi capi che cosa si trova in questo 
classico della filosofia. Apparso negli Annalen der Naturphilosophie di Ostwald 
nel   1921   e   poi   in   inglese   nel   1922   con   introduzione   di   Bertrand   Russell,   il 
Tractatus consta di una serie di aforismi seguiti da commenti e sottocommenti 
numerati   secondo   il   loro   grado   di   importanza.   Lo   stile   della   presentazione, 
lapidario e a volte criptico, è più simile a quello della filosofia antica e della 
filosofia orientale che a quello contemporaneo, caratteristica che contribuì al suo 
successo editoriale.  Sette aforismi principali  sono seguiti da commenti numerati 
in ordine di importanza. 
1.Il mondo è tutto ciò che accade
 2. Ciò che accade, il fatto è il realizzarsi di stati di cose
 3. L’immagine logica dei fatti è il pensiero
4. La proposizione è il pensiero dotato di senso
5.La proposizione è una funzione di verità delle proposizioni elementari
6.La forma generale della proposizione è [ ­ , /, ξ]
7.Di ciò di cui non si può parlare bisogna tacere

   Il mondo   reale viene presentato come la somma degli accadimenti o fatti, e 
questi   sono   la   realizzazione   di   alcuni   degli   infiniti   “stati   di   cose” 
combinatoriamente   possibili.   Questi   fatti   possono   essere   estremamente 
complessi, ma per quanto complessi siano essi non sono altro che combinazioni 
di fatti atomici o elementari, e cioè fatti che non possono essere scomposti in 
altri fatti: p.es. il fatto che piove e che il cielo è coperto è un fatto molecolare , 
che è la composizione del fatto atomico che piove con il fatto atomico che il 
cielo è coperto. Poiché tra linguaggio e mondo esiste una specularità fotografica, 
il linguaggio nella sua forma ideale consta di enunciati molecolari che sono la 
composizione di enunciati atomici. Il modo in cui gli enunciati si compongono 
nel linguaggio ideale è offerto da   alcuni semplici connettivi logici: negazione, 
congiunzione,   disgiunzione,   condizionale   e   bicondizionale.     L’uso   di   simboli 
appositi  (¬,  ∧  , v ,  ⊃  ,   ≡) sta a sottolineare che questi connettivi non sono 
esattamente la traduzione dei loro corrispettivi nel  linguaggio ordinario.     Le 
cosiddette tavole di verità ci danno le condizioni a cui un enunciato molecolare è 
vero o falso a seconda della verità o falsità degli enunciati atomici componenti.
Vero e Falso sono detti “valori di verità” degli enunciati.
Queste tavole di verità si possono descrivere sinteticamente in questo modo:
Se A e B sono enunciati qualsiasi,
la congiunzione A ∧ B è Vera se A e B sono ambedue Vere, altrimenti Falsa;
la disgiunzione A v B è Falsa se A e B sono ambedue False, altrimenti Vera;
il condizionale A  ⊃   B è Falso se A è Vera e B Falsa, altrimenti Falso;
il bicondizionale A ≡  B è Vero se A e B hanno lo stesso valore di verità, 
altrimenti è Falso;
la negazione   ¬A è vera se A è Falsa, e Falsa se A è vera.
   Quando un enunciato è invariabilmente vero si dice  tautologia: le tautologie 
sono quelle che tradizionalmente venivano chiamate  leggi logiche (p.es. il terzo 
escluso). Applicando le tavole di verità si può stabilire in modo meccanico e in 
un tempo finito   se un enunciato è o non è una tautologia. Come si suol dire, 
dunque, le tavole di verità, forniscono una procedura di decisione per la logica 
degli enunciati atomici e molecolari. Come si vedrà più avanti, questa logica è 
solo una porzione limitata della logica necessaria alla formalizzazione del 
linguaggio scientifico, ma Wittgenstein riteneva che a tale frammento fosse 
riducibile ogni ramo superiore della logica. 
 Su questa premessa fondamentale (in effetti una vera e propria metafisica) 
Wittgenstein costruisce una teoria del significato che, in forma più sofisticata, 
sarebbe stata ereditata dal Circolo di Vienna. L’idea basilare è che una 
proposizione è dotata di senso quando si è in grado di definire  una procedura per 
stabilire se è vera o falsa, dove la verità consiste nel rispecchiamento di un fatto 
atomico o molecolare. Nella sua prima formulazione il cosiddetto “criterio 
empirico di significanza” prendeva questa forma, noto anche come principio di 
verificabilità :
(PV)“Un enunciato è significante  se e solo se è verificabile in linea di 
principio”. 
Altra  variante
(PV*)“Il significato di un enunciato è il metodo della sua verifica”
Prendiamo p.es. due  coppie di asserti tratti dalla filosofia tradizionale: “Un ente 
onnipotente ha creato il mondo”  e “l’Essere è in bilico sul Nulla”. Non 
essendoci procedure per stabilire se sono veri o falsi, sono privi di senso, e lo 
stesso vale per le loro negazioni. La funzione della logica (e della filosofia come 
attività di chiarificazione) è quella di parafrasare gli enunciati del linguaggio 
ordinario nel linguaggio ideale, in modo tale da chiarire  la loro forma logica 
perfetta; una volta così  tradotte, si stabiliscono le condizioni a cui sono vere o 
false, e si stabilisce così la loro sensatezza. La conclusione di questa analisi, o 
meglio le conclusioni che si propone di raggiungere questa analisi è che le 
proposizioni che costituiscono la metafisica tradizionale sono prive di senso, 
mentre solo le proposizioni della scienza sono dotate di senso. 
       In Wittgenstein questa autolimitazione della filosofia si colora di una vena 
mistica   che   non   si   trova   negli   altri   filosofi   neopositivisti.   Le   proposizioni 
dell’etica   e   dell’estetica     sono   a   rigore   prive   di   senso,   anche   se   esprimono 
sentimenti e passioni che, pur ineffabili, hanno  grande valore per gli uomini. Lo 
stesso vale per il Trascendente: esso viene percepito come qualcosa che si pone 
al di là del limite, che esiste (“si mostra”, dice W), ma è inesprimibile.
    La metafisica tradizionale e la sua compagna prossima –la teologia­ dunque 
sono il campo di contese inconcludenti e infinite  perché constano di 
pseudoproposizioni prive di senso e discutono quindi  pseudoproblemi.
     Ma le discussioni che si aprirono immediatamente, in seno al Circolo, sul 
criterio empirico di significanza, danno la misura di come lo stile filosofico del 
circolo fosse  antidogmatico e, in certo senso,  ispirato al metodo sperimentale. 
Ogni esplicazione di un concetto che veniva proposta in via tentativa non 
pretendeva ad essere definitiva ma perfettibile.  La  nozione più importante da 
esplicare in via preliminare era la nozione di significanza, ma il principio di 
verificabilità si dimostrava immediatamente inaccettabile, nella forma sopra 
proposta. In primo luogo, anche trascurando che tutte le proposizioni normative e 
valutative risultano prive di senso per tale criterio, bisogna chiarire che la 
verificabilità “in linea di principio” deve applicarsi anche a proposizioni per cui 
non esiste, nel momento in cui sono valutate, la disponibilità tecnica di una 
verifica. Quando  venne fondato il Circolo di Vienna non c’era la possibilità 
tecnica di mandare una sonda sulla Luna, ma nessuno dubitava della sensatezza 
dell’enunciato “ci sono montagne dall’altra parte della luna”, per quanto avrebbe 
potuto risultare , a sorpresa, falso. La risposta era che esso risulta sensato “in 
linea di  principio”, e cioè, nei limiti in cui possiamo descrivere senza 
contraddizione delle tecniche che consentirebbero la verifica.  Ma il problema 
più grave, come si vide immediatamente, era un altro. 
    Prendiamo una legge di natura come “Tutti i corvi sono neri”. è  ovvio che la 
legge non asserisce qualcosa sui corvi effettivamente osservati, che sono in 
numero finito, ma su tutti i corvi presenti, passati e futuri che sono in numero 
infinito; anzi, come vedremo meglio, su tutti i possibili corvi, che sono pure 
infiniti . Secondo una teoria suggerita dallo stesso Wittgenstein nel Tractatus, un 
asserto come questo, che i logici simbolizzano nella forma  ∀x (Nx ⊃ Cx) 
equivale a una congiunzione infinita di enunciati del tipo “a è un corvo solo se a 
è nero”, “b è un corvo solo se b è nero”, “c è un corvo solo se c è nero “ ecc.. In 
questa analisi vediamo all’opera il ruolo della logica formale, che ciò porta a 
evidenziare ciò che il senso comune e la logica del senso comune non rendono 
trasparente. Per verificare la legge dovremmo  quindi verificare infiniti enunciati, 
e quindi compiere infinite verifiche. Ma questo non è possibile nemmeno in linea 
di principio: ammesso e non concesso che si disponga di un nome per tutti gli 
oggetti dell'universo, dobbiamof are i conti con il fatto che il tempo disponibile 
per le verifiche è un tempo finito. Conclusione: le leggi scientifiche, che sono gli 
enunciati che  rendono possibile la ricerca scientifica, sono prive di senso.
    Gli anni ’30 furono caratterizzati dai tentativi di emendare il criterio empirico 
di significanza salvando almeno la significatività delle leggi scientifiche. In 
Testability and Meaning Carnap propose di sostituire la verificabilità con la 
controllabilità (che presuppone l’ esistenza di strumenti di controllo) e poi con la 
confermabilità. Il criterio di significanza liberalizzato asserirà dunque che un 
enunciato è significante se e solo se è confermabile. 
   Che vuol dire confermabile?  Per capirlo dobbiamo renderci conto fatto che il 
neopositivismo è l’erede dell’empirismo classico, cioè dell’ idea secondo cui 
ogni conoscenza  non a priori deriva in ultima analisi dall’esperienza. (il 
sintetico a priori per un empirista è puramente contraddittorio). Ma l’ esperienza 
ci dà solo approssimazioni alla certezza, e cioè gradi probabilità. Il probabilismo 
quindi è l’esito naturale dell’empirismo. Assegnare a un enunciato un grado di 
conferma sulla base  dell’esperienza equivale ad assegnargli un grado di 
probabilità. Se a un enunciato (p.es. una legge) siamo in grado assegnare un 
grado di probabilità sulla base dell’esperienza questo enunciato è  significante, 
altrimenti no. 
    La nuova riformulazione di Carnap poneva su basi più soddisfacenti il criterio 
di significanza, ma guadagnava un problema nuovo, che era quello di  proporre 
un’analisi logica della stessa nozione di probabilità. Come vedremo più avanti, 
Carnap produsse uno sforzo matematicamente poderoso per  ricostruire il calcolo 
delle probabilità come ramo specifico (assiomatico)  della logica.  Nella sua 
prospettiva logica della conferma, logica induttiva e calcolo della probabilità 
costituiscono un’unica teoria.  Non erano idee completamente nuove, dato che 
Keynes le aveva già espresse in “Treatise on Probability”. Ma la differenza 
sostanziale è che Carnap usa come strumento di indagine non la matematica ma 
la logica simbolica. Per tutti i neopositivisti è la logica, non la matematica, che 
diventa strumento per la rigorizzazione del linguaggio scientifico. Secondo 
Carnap ­ che da questo punto di vista proseguiva l’insegnamento di Frege e 
Russell ­la matematica si può ricostruire come un ramo della logica (logicismo). 
Come vedremo, oggi questa posizione è difficilmente sostenibile, ma l' idea 
guida del  logicismo ha avuto un’ enorme suggestione e ha dato  slancio  alle 
ricerche del Circolo di Vienna.

§3. Torniamo per un momento alle vicende del Circolo, che dopo il 1925 nel giro 
di pochi anni si trasformava in un vero e proprio movimento organizzato. Nel 
1929 compariva il manifesto del gruppo  Wissenschaftliche Weltauffassung: der 
Wiener Kreis, un opuscolo di 60 pagine firmato da Hahn, Neurath, Carnap. Nel 
1935   Neurath in una breve monografia enucleava quattro caposaldi che erano 
condivisi da quanti aderivano al movimento: 1) antimetafisica 2) empirismo di 
carattere generale 3) intervento  metodico della logica 4) matematizzazione di 
tutte   le   scienze.   Tra   i   precursori   delle   nuove   idee   venivano   indicati   (a   parte 
Mach,  che era il  modello  di  scienziato­filosofo più vicino al  circolo)  Comte, 
Hume, Sesto Empirico, Leibniz.  Filosofi come Democrito e Marx  erano citati 
insieme ad altri per il loro orientamento antimetafisico e antireligioso. 
      Era molto chiaro che la logica e la matematica agivano non solo come 
strumenti di lavoro ma assolvevano una funzione superiore. Infatti, dal momento 
che offrivano un linguaggio comune a tutte le scienze avanzate assicuravano la 
comunicazione tra queste  e quindi  diventavano agenti­ chiave di un processo 
che la filosofia doveva incoraggiare: quello verso l’unità della scienza. La 
promozione dell’unità della scienza diventa quindi  un obiettivo  cardinale 
dell' epistemologia.  Nel 1935 si tenne a Parigi un congresso intitolato all’unità 
della scienza, a cui Neurath partecipò con una prolusione in cui si richiamava 
apertamente al programma degli enciclopedisti del 700.  Neurath diventava 
animatore di una collana di studi “International Encyclopedia of Unified 
Science” di cui vennero pubblicati diversi fascicoli scritti dai migliori specialisti. 
Le scienze non solo dovevano tendere all’unità ma di fatto erano avviate verso di 
questa nella misura in cui una scienza avanzata, la fisica, tendeva 
progressivamente a  inglobare altre scienze, a partire dalla chimica, come suoi 
rami specifici. A lungo andare le scienze della vita , e poi anche le scienze 
umano sociali ­ così si pensava ­ si sarebbero ridotte a rami specializzati della 
fisica (fisicalismo). 
     Mentre le idee del Circolo acquistavano vigore, le  vicende umane dei suoi 
componenti erano drammaticamente sfortunate. Nel 1936, anno dell’annessione 
dell’Austria alla Germania, Schlick venne assassinato da uno studente nazista 
sulle scale dell’Università di Vienna.  Questo evento segnava la fine del 
movimento organizzato in Europa e l’inizio della diaspora  dei suoi membri. 
Carnap, Reichenbach, Hempel, Weinberg, Feigl e altri trovarono posto in varie 
università americane, dove incontrarono un ambiente molto favorevole. 
Naturalmente, nonostante la mediazione di brillanti giovani come Quine, la 
filosofia dominante negli USA era quella pragmatista, dominata dall’ influenza 
di personalità come Dewey e  C.I.Lewis, a cui tra l'altro non era estranea neppure 
l’influenza dell’idealismo hegeliano importata nell’800 dagli immigrati di lingua 
tedesca.  
   Fino al 1970 (morte di Carnap) il positivismo logico nella versione americana – 
talvolta chiamato received view  –  fu la  corrente epistemologica dominante 
negli Stati Uniti.  Da un lato questa corrente di pensiero, che non solo ammetteva 
ma incoraggiava le divergenze interne come fattore di progresso, mostrava una 
straordinaria capacità di crescita, dall’altro  il successo era garantito dalla 
mancanza di  alternative credibili.
    Negli anni ‘30, grazie soprattutto ad Hempel, il positivismo logico fu in grado 
di sviluppare una concezione delle teorie scientifiche e della spiegazione 
scientifica che non ha avuto rivali fino agli anni 70.   Cominciamo  a chiarire che 
il pensiero dei neopositivisti poggiava su una serie di presupposti che non 
venivano messe in discussione perché erano in un certo senso considerati 
autoevidenti. Si trattava di alcune dicotomie concettuali  e principalmente: 1)la 
distinzione analitico­sintetico 2) la distinzione tra contesto della giustificazione e 
contesto della scoperta 3)la distinzione teorico ­ osservativo.
1)   La   prima   distinzione   fa   parte   della   tradizione   filosofica   derivata 
dall’empirismo.     Gli   enunciati   veri   o   sono   tali     per   la   loro   forma   o   per   il 
significato dei termini (ex vi terminorum) oppure in virtù dell’osservazione e 
dell’esperimento.   Alla   prima   classe   appartengono   enunciati   come   “0=0”, 
“2+2=4”,   “Nessuno   scapolo       è   sposato”,   che   vengono   detti   analitici.   Altri 
enunciati, come “ alcuni gatti   sono neri” sono derivati dall’esperienza e sono 
detti sintetici. I primi non possono mai essere falsi per il loro stesso significato, 
mentre i secondi possono essere veri o falsi a seconda delle circostanze.
2) La distinzione tra contesto della scoperta e contesto della giustificazione, 
sottolineata da Reichenbach, indica che le qualità che rendono giustificato 
inserire  un enunciato nel corpo della scienza (p.es. coerenza interna, alto grado 
di conferma ecc.) non hanno niente a che vedere con il modo in cui questo 
enunciato è stato di fatto  scoperto dagli scienziati. Che Newton  sia  arrivato alla 
teoria della gravitazione osservando una mela cadere dall’albero è molto 
interessante per la psicologia ma irrilevante per la epistemologia. Si osservi che 
molte scoperte sono , come si dice oggi, serendipiane, cioè preterintenzionali, il 
che nulla toglie alla loro validità.
3) La dicotomia osservativo­teorico è essenziale per capire la concezione 
neopositivista delle teorie. Il linguaggio ideale della scienza deve  distinguere 
rigorosamente due insiemi di termini ; quelli che descrivono qualcosa che cade 
sotto il dominio diretto dei sensi (rosso, mela, telescopio…) e quelli che non 
hanno questa caratteristica, pur essendo impiegati correntemente nella scienza 
(gravità, peso, inflazione, inconscio…). Grosso modo si tratta della vecchia 
distinzione tra concreto e astratto che qui, ovviamente, passa attraverso l’ esame 
rigoroso della logica. Non si nega che ci possono essere casi di difficile 
attribuzione ( per esempio un peso di 90 Kg rilevato da una bilancia è 
osservativo o teorico? ) ma si afferma che si può sempre tracciare una distinzione 
abbastanza sicura tra ciò che viene rilevato dall’osservazioni e da semplici 
operazioni di misura e ciò che non ha questa caratteristica. 
   Breve parentesi. Negli anni '20 e '30 i neopositivisti dedicarono molte energie a 
stabilire la forma e la qualità delle informazioni basilari, derivate dai sensi, su cui 
doveva   poggiare   l’intera   costruzione   della   scienza   (protocolli).     Alcuni 
sostenevano   che   i   protocolli     non   erano   enunciati   ma   resoconti   neutri   di 
osservazioni del tipo “qui,ora, rosso”, mentre altri come Neurath sostenevano 
che ogni enunciato va confrontato con altri enunciati , per cui non ha senso far 
poggiare una costruzione linguistica come la scienza su dati extralinguistici.
  Qui interessa osservare che, una volta accettata la dicotomia 
“osservativo/teorico” per gli enunciati singoli, questa si può estendere  alle leggi 
scientifiche (che per i neopositivisti sono enunciati di tipo particolare, e non 
elementi della realtà) le quali possono essere classificate quindi in osservative 
( es.:”tutti i  cavalli hanno un cervello”) e teoriche (es::“tutti  gli atomi sono 
costituiti da elettroni in movimento”). 
    Qui dobbiamo subito chiederci se gli asserti teorici, non essendo derivati 
dall’osservazione, non  finiscano per cadere sotto i rigori del criterio empirico di 
significanza al pari delle pseudoproposizioni metafisiche (già abbiamo visto che 
questo pericolo insidiava le stesse leggi scientifiche). Qui le risposte sono state 
diverse. La più semplice, proposta dal fisico americano Bridgman, sta nel dire 
che ogni termine teorico è definibile in termini della classe di operazioni e di 
calcolo che consentono di precisare il loro valore. Per quanto suggestiva, questa 
idea urta contro una difficoltà di fondo: dal momento che le operazioni di misura 
e di calcolo di aun stessa grandezza, poniamo della temperatura, sono diverse e 
cambiano con gli sviluppi tecnologici, ci sono diversi concetti di temperatura che 
cambiano continuamente. Per ovviare a questo problema i neopositivisti 
trovarono una soluzione che divenne in un  certo senso definitiva:
     per ogni termine teorico t esistono delle regole che  lo connettono ai dati 
osservativi dandone una “interpretazione parziale”, che può arricchirsi 
indefinitamente con lo sviluppo della scienza. Una regola di corrispondenza per 
esempio è la seguente:
“se la colonnina di mercurio entro il termometro b raggiunge la tacca c, la 
temperatura del corpo b è di 35°”.
     Il complesso di tali regole (che, si noti, non sono equivalenze ma semplici 
implicazioni) è in grado di interpretare, cioè assegnare un significato, in un dato 
momento storico,  a un termine teorico. 
    Una teoria scientifica si presenta come una costruzione piramidale di leggi 
gerarchizzate secondo la loro generalità e secondo il loro carattere più o meno 
teorico . Questo presuppone che si sappia distinguere una legge di natura da altri 
enunciati che hanno struttura sintattica analoga (p.es. “Tutti i pianeti hanno il 
nome di una divinità greca”), ma i neopositivisti ritenevano, almeno fino 
all’inizio degli anni ’40, che tale distinzione non fosse problematica. Al  livello 
più basso della gerarchia suddetta si trovano leggi che si appoggiano 
direttamente all’esperienza osservativa. Per esempio da “tutti i corvi osservati 
sono neri” si inferisce la legge osservativa “tutti i corvi sono neri”  mediante una 
estrapolazione induttiva.   Ci sono casi in cui una legge riceve sostegno induttivo 
dal basso, ma è anche derivabile da leggi di maggiore generalità e astrazione. In 
tal caso questa legge nel corpo della teoria ha una posizione molto solida. Al 
vertice della piramide si trovano nella scienza modello (la fisica) leggi teoriche 
come F=ma. Esse ricevono un senso mediante le regole di corrispondenza, ma 
sono giustificate dalla loro capacità di derivare innumerevoli leggi di inferiore 
generalità e minore astrazione che in forma diretta o indiretta poggiano 
sull’esperienza.
     Veniamo ora al concetto di spiegazione  (si noti che la spiegazione non va 
confusa con la esplicazione a cui si è già accennato, anche se i termini in italiano 
sembrano sinonimi).
  Un tema importante dell’espistemologia è stato fin dall’ 800 l’interrogativo: 
qual è lo scopo primario della scienza? Le risposte sono state almeno tre : a) 
descrivere sinteticamente la natura; b)  effettuare previsioni corrette; c) spiegare i 
fenomeni sotto indagine.
  Scartata come limitativa la prima,  la terza risposta è stata quelle che i 
neopositivisti hanno sottoscritto, anche perché si è affermata la diffusa 
convinzione che fosse coincidente con la seconda. Hempel ha difeso con forza 
fino agli anni 60 la cosiddetta “tesi della simmetria”, secondo la quale 
spiegazione  e previsione sono strutturalmente identiche. Su questo ci sarebbe 
molto da discutere. Se è vero che la previsione razionale di un evento (p.es. 
un’eclissi di luna, non una vincita al lotto) implica una sua spiegazione, è più 
difficile sostenere che  la spiegazione di un evento passato (p.es. il crollo di Wall 
Street del 1929) implichi una sua previsione (il crollo si è verificato perchè in 
quel momento ha colto gli operatori di sorpresa, altrimenti sarebbe stato forse 
evitato).
   Accettiamo per  semplicità la tesi della simmetria. Spiegare significa dare una 
risposta alla domanda “Perché E”? E può essere una legge o un fatto singolo. Nel 
caso di una legge la  nozione  neopositivista di teoria racchiude la risposta: Se 
una legge si deriva da una legge più generale si considera  spiegata da questa. 
Naturalmente bisognerebbe caratterizzare la nozione di “più generale”. Se io mi 
chiedo perché tutti i cani  italiani hanno un cervello e rispondo “ perchè tutti i 
cani  europei hanno un cervello”  questa seconda legge è più generale della 
prima, ma   darebbe una spiegazione ben misera del fatto su cui ci si interroga. 
Viceversa “tutti i quadrupedi hanno un cervello” darebbe una spiegazione molto 
migliore perché connette due proprietà strutturali suggerendo anche un nesso 
causale tra di esse.
    Ciò che è chiaro comunque è che spiegare significa derivare logicamente, e 
che ogni spiegazione va presentata come una derivazione logica. Nel caso E sia 
un  evento singolare effettivamente accaduto la derivazione logica  può essere 
data da uno o più fatti  noti come accaduti mediante una o più leggi di natura. 
Seguendo Hempel, l’evento da spiegare E (explanandum) si deriva da un 
explanans che consta di una classe di leggi L1 & …& Ln e di condizioni iniziali 
C1….Ck. 
   Questa idea apparentemente banale, nota come teoria delle leggi di copertura o 
schema di Hemperl­Oppenheim, in realtà è una fonte di problemi. Ne 
distingueremo due tipi: in primis bisogna porre delle restrizioni su questa 
definizioni iniziale. Supponiamo per esempio che  E e C1 siano identiche o 
logicamente equivalenti oppure due descrizioni dello stesso fenomeno. In questo 
caso avremmo che Ci è un elemento della spiegazione di E, cioè che E spiega E. 
Questo può sembrare assurdo ma nella storia della scienza si è verificato più 
spesso di quanto non si pensi. Nella commedia di Molière “Il Borghese 
Gentiluomo” si ironizza suglia aristotelici che spiegavano la capacità dell’oppio 
di far dormire dicendo che possedeva un virtus dormitiva. Per un neopositivista il 
significato di questo enunciato è indistinguibile dall’explanandum (le proceduree 
di verifica sono identiche), per cui in questo caso, nonostante le apparenze, si 
spiega E mediante E. Altre condizioni restrittive  hanno lo scopo di evitare altre 
banalizzazioni: per esempio se A spiega E, non bisogna permetter che E spieghi 
A, quindi bisogna garantire che questa relazione non sia simmetrica.
    Ma la più interessante difficoltà è stata vista da Hempel  per il fatto che L1…
Ln possono essere non  leggi ineccepibili ma leggi probabilistico­induttive (p.es 
il 99% dei fiammiferi sfregati si accende). Questo impone una correzione dello 
schema iniziale perché l’explanandum in questo caso non segue con la certezza 
del 100% ma con una certezza inferiore. Stando così le cose dobbiamo precisare 
il grado di certezza (probabilità) della conclusione specificandolo anche 
formalmente. Per Hempel –che distingue questo schema chiamandolo statistico­
induttivo­  la probabilità della conclusione date le premesse deve comunque 
essere molto alta (regola dell’alta probabilità) .
    Il modello  SI (Statistico­Induttivo) ha dei problemi propri che si aggiungono 
ai problemi del modello ND (Nomologico­Deduttivo). Ci limitiamo ad accennare 
al fatto che un aumento di informazione nelle premesse può far saltare il rapporto 
tra premesse e conclusione. Per esempio: chiediamoci perché il Sig. Rossi si è 
ristabilito da una recente operazione chirurgica. Rispondiamo con l’explanans 
seguente: Rossi è stato operato di appendicectomia e il 99%  di questi interventi 
è seguito da una rapida guarigione. Ma supponiamo di acquisire nuove 
informazioni su Rossi:  da queste risulta che Rossi  ha 95 anni di età. La 
probabilità che a quest’età un’operazione di questo genera si risolva con una 
rapida guarigione non è molto alta ma molto bassa. Si dice oggi che l’inferenza è 
non­monotòna: è sensibile all’ incremento di informazione nelle premesse. La 
risposta di Hempel, che suscitò immediatamente obiezioni e polemiche, fu che 
la descrizione dell’explanandum doveva essere massimamente specifica. Non 
bisogna occultare le informazioni che si possiedono su E. Questo è un caso 
particolare della regola che i positivisti logici chiamano di Evidenza Totale. In 
ogni spiegazione bisogna tener conto di tutta l’informazione disponibile. SI tratta 
di un ideale difficile da raggiungere, se non altro perché tutta l’informazione 
disponibile potrebbe esigere un tempo infinito o comunque illimitatamente 
grande.

[Per una Bibliografia essenziale sul neopositivismo si veda L. Geymonat, “Storia 
del pensiero scientifico e filosofico”; voll 6 e 7, Garzanti 1972, 1976]
    
II. LA SVOLTA RELATIVISTICA E IL PROBLEMA DEL REALISMO.
 
§1. Negli anni ’50  il positivismo logico dominava incontrastato le università di 
tutti i paesi di lingua inglese. Allo stesso modo in cui si   usa indicare per il 
neopositivismo  una data di nascita  si potrebbe indicare una data di morte: in tal 
caso una scelta appropriata sarebbe il 1970 (anno della scomparsa di Carnap). La 
verità è che il neopositivismo non è morto perché è stato superato     da altre 
correnti   più   agguerrite   o   perché   è”passato   di   moda”,   come   accaduto   p.es.   al 
marxismo o all’esistenzialismo.  Il fatto è che per svariati motivi i suoi stessi 
esponenti hanno smesso di accettare per sé questa etichetta.  Ricordiamo che per 
i neopositivisti la filosofia non è un sistema di idee ma un’attività, e che tale 
attività portava i neopositivisti a rimettere in discussione spregiudicatamente   i 
presupposti di base. Alla fine le divergenze  su questi presupposti erano divenute 
troppo ampie perché si potesse parlare di   un movimento di pensiero unitario, 
anche se estremamente articolato.
    Alcuni di questi presupposti condivisi sono già stati indicati in alcune di quelle 
opposizioni concettuali a cui si è già accennato e che venivano accettate come, in 
un   certo   senso,   autoevidenti:   la   distinzione   analitico­sintetico,   la   distinzione 
osservativo­teorico,   la   distinzione   tra   contesto   della   scoperta   e   contesto   della 
giustificazione.  Per quanto riguarda la prima va osservato che W.v.O.Quine in 
“Due   dogmi   dell’empirsimo”   (1946),   pur   ponendosi   come   il   collega   Nelson 
Goodman nel solco del neopositivismo,  criticava l’adesione dei positivisti logici 
a  due “non empirici dogmi dell’empirismo”: questi dogmi erano il riduzionismo 
(la   tesi   per   cui   ciò   che   è   significante   è   riconducibile   a   qualcosa   che   deriva 
dall’esperienza   immediata)   e   la  distinzione   analitico­   sintetico.         Quine   si 
chiedeva: che significa dire che “ogni maschio adulto non sposato è scapolo” è 
“analitico”?.   Quando   si   tenta   di     esplicare   l’analiticità   secondo   Quine   si 
chiamano   in   causa   nozioni   imparentate   come   quella   di   sinonimia,   necessità, 
regola   semantica   ,   che   non   hanno   un   significato   chiaro   (Quine   ha   sempre 
accusato di oscurità nozioni modali come quelle di necessario e possibile) oppure 
rimandano circolarmente a quella di analiticità. 
   Quanto al  riduzionismo (che riporta al criterio empirico di significanza) Quine 
osserva che in fondo esso riposa sul presupposto per cui si possono falsificare o 
verificare degli enunciati atomici in stato di isolamento mediante dati sensoriali, 
ciascuno dei quali dovrebbe essere espresso da qualche proposizione elementare. 
Di fatto però questo non accade. La tesi di Quine, poi sviluppata da lui negli anni 
50 con un impronta molto personale,  è che gli enunciati di una teoria non 
vengono  sottoposti al vaglio dell’esperienza singolarmente ma in modo  olistico, 
cioè tutti insieme.  Per Quine ingenuo pensare che una teoria venga confermata 
confermando singolarmente tutti i suoi asserti, o che si abbandoni una teoria 
semplicemente perché si trova un controesempio.  Quando una teoria “funziona” 
ai fini della spiegazione e della previsione non  è conveniente eliminarla, anche 
se per avventura dovesse essere in conflitto con qualche dato sperimentale. Qui 
emerge il pragmatismo della tradizione americana, che preferisce parlare di 
utilità o funzionalità delle teorie piuttosto che di verità o falsità delle stesse. Per 
usare la sua immagine, una teoria è come un campo  di forza che tocca 
l’esperienza con uno sei suoi lati. Se entra in conflitto con  l’esperienza viene 
revisionata in modo da riprendere la sua funzionalità.  
    Nella prospettiva di Quine ci sono proposizioni più immuni da revisione e altre 
meno immuni. Le proposizioni della logica e della matematica sono più immuni 
da revisione delle altre, e queste sono quelle che  i neopositivisti di solito 
classificano come analitiche. Ma esse non sono immuni  per loro natura o per 
qualche stipulazione che le rende tali, come i neopositivisti erano soliti pensare. 
Un esempio per esempio è dato dalla legge del terzo escluso, che per la logica 
matematica  è una tautologia garantita dalle tavole di verità.  A parte il fatto che 
c’è una scuola di pensiero matematica, l’intuizionismo, che le nega la validità 
del terzo escluso nelle stesse scienze formali, è accaduto che la meccanica 
quantistica, cioè una scienza empirica, ha evidenziato una classe di fenomeni 
sperimentali che si possono descrivere solo rinunciando ad una logica che 
includa il terzo escluso e molte altre delle leggi logiche accettate dalla tradizione. 
Dunque quello che è sempre stata citata come un esempio di verità analitica  è 
stato rimesso in discussione a fronte di   dati sperimentali , proprio come 
accadrebbe quando la scoperta di   cigni neri in Australia ha portato a  repingere 
“tutti i cigni sono bianchi”. 
   Negli anni '50 il  neopositivismo subiva attacchi anche da parte di una scuola 
che per certi versi era agli antipodi di quella pragmatista a cui si ispirava 
sostanzialmente Quine. Era la scuola che un filosofo di orgine viennese, Karl 
Popper, aveva fondato in Inghilterra presso la London School of Economics, e 
che tuttora è attiva (Agassi, Watkins, Fetzer).
    Per molti anni , soprattutto in Italia, Popper (viennese della generazione di 
Carnap) è stato considerato un neopositivista eretico e un personaggio 
secondario nel panorama epistemologico. I punti di contatto con il 
neopositivismo ovviamente non mancano: per esempio la concezione della 
spiegazione scientifica di Popper anticipava quella di Hempel, al punto che si 
parla di teoria di Popper­Hempel. Ma gli sviluppi del pensiero di Popper seguiti 
alla sua “Logica della scoperta scientifica” (1936) hanno reso chiaro che la sua 
prospettiva era originale e indipendente.   Rapidamente, si può osservare che già 
negli  anni ‘20  il problema centrale di Popper non era quello della significanza 
(su cui si tormentavano i neopositivisti) ma quello della demarcazione tra 
scienza e pseudoscienza.  Che cosa distingue gli asserti della scienza da ciò che 
scienza non è, anche quando si autoproclama scienza?  Gli enunciati della 
scienza hanno una caratteristica comune: sono tutti falsificabili. Anche se non 
siamo in grado di  dire che sono veri, siamo in grado di dire quale osservazione o 
quale esperimento li renderebbe falsi. Si noti che questo risolve in modo diverso 
il problema delle leggi di natura. “Tutti i corvi sono neri” fa parte della scienza 
non perché è vero ma perché è una ipotesi che ha resistito a vari tentativi di 
falsificazione. Noi siamo in grado di enunciare che cosa lo renderebbe falso 
(l’osservazione di un corvo non­nero)  e  l’etica scientifica impone di sottoporlo 
a tests severi in grado di falsificarlo.  Non ha senso raccogliere  all’infinito 
esempi di corvi neri per confermare questa presunta legge: essa avrà sempre il 
carattere di un’ipotesi, la cui validità dipende dalla sua resistenza ai tentativi di 
falsificazione.
   La metafisica e le pseudoscienze invece si autoimmunizzano rendendo 
impossibile la falsificazione. In un famoso saggio del 1933 Popper cita la 
psicoanalisi, il marxismo e l’astrologia come esempi di pseudoscienze formulate 
in modo da non essere smentite da nulla. Per esempio le caratterizzazioni dei tipi 
umani secondo i segni zodiacali è formulata in modo tale che ci sono sempre 
scappatoie per evitare la falsificazione (per  esempio il ricorso agli ascendenti, 
alle cuspidi ecc.).  Questo non accade – e non deve accadere­ per la scienza. 
Quando Einstein presentò la relatività in varie occasioni disse che  il test decisivo 
per la teoria sarebbe stato l’osservazione  del pianeta Mercurio nel 1919 in 
posizione di massima vicinanza al Sole : “Se non dovesse esistere lo 
spostamento verso il rosso delle linee spettrali dovute al potenziale 
gravitazionale, la teoria generale della relatività sarebbe insostenibile”.    
    La scienza per Popper è un sistema di ipotesi che reggono  fino a  prova 
contraria, proprio come l'accusa   diimputato che porta alla sua condanna è 
accettata da un tribunale fino a che  non emergono eventuali elementi che la 
falsifichino (si noti che Popper era figlio di un avvocato).  L’induzione quindi 
non ha alcun ruolo nella scienza.  Tutt’al più una teoria che sostiene molti tests 
volti a falsificarla si  può dire più o meno corroborata. La scienza è un edificio 
che non poggia sul terreno roccioso: per usare una  fortunata metafora di Popper, 
è come una palafitta piantata su un terreno argilloso. Con il tempo una teoria  si 
consolida, i pali della palafitta vengono spinti più a fondo, ma senza arrivare mai 
a un  punto fermo.  Una teoria T, se falsificata, è sostituita da una teoria T’ che 
recupera la parte sana di T. T’ verrà sostituita da una teoria migliore T”. Questo 
progresso ci porta a teorie sempre più verosimili, cioè sempre più approssimate 
alla   verità, verità che resta un ideale a cui la scienza  si avvicina 
asintoticamente.
    Bisogna sottolineare  ancora che Popper non si interessa della questione della 
significanza.  Criticare la metafisica non vuol dire negare la significanza dei suoi 
enunciati. Sarebbe sciocco pensare che Aristotele o Cartesio dicessero cose prive 
di senso (incidentalmente Popper negli ultimi anni ammise di essere sempre stato 
un dualista cartesiano, cioè di aver sempre creduto nel dualismo di spirito e 
materia). In realtà non solo buona parte della metafisica è dotata di senso, ma è 
accaduto che la metafisica ha preparato il terreno alla scienza o l’ha 
accompagnata interferendo positivamente con  questa. Il tema della relevant 
Metaphysics è stato  sviluppato dopo il 60 soprattutto dalla sua scuola, che ne ha 
fatto un motivo caratterizzante.
   Quine e Popper rappresentano due modi diversi di criticare il positivismo 
logico pur restando fedeli , in un certo senso, al suo spirito. Per quanto lontani, 
ambedue hanno in comune il rifiuto di considerare la teoria come una 
costruzione “estratta” tramite qualche tipo di astrazione dalle esperienze 
osservative. Secondo Popper  questa idea non fa che perpetuare il mito 
baconiano secondo cui i concetti astratti, le teorie , le leggi ecc. sono derivati 
dalle osservazioni così come il vino è derivato dalla spremitura dei chicchi di 
uva. è  stato facile obiettare a Popper che  di fatto la sua concezione usa più 
induzione di quanto lui  miri a far apparire. Quella che Popper chiama “gradi di 
corroborazione” – cioè  gradi di resistenza ai test falsificanti – assomigliano ai 
gradi di conferma carnapiani. Ma, soprattutto, accade che per effettuare un test 
falsificante c’è bisogno di usare strumenti sicuri e  collaudati ­ p.es. telescopi, 
barometri ecc. : e tale sicurezza può solo essere stabilita con ripetute esperienze, 
cioè in fin dei ca di tipo induttivo.  Detto altrimenti, dobbiamo  presupporre la 
persistenza di certi oggetti e la stabilità di un certo numero di loro qualità, cioè 
ammettere qualche variante del principio che una volta veniva chiamato di 
Uniformità della Natura. In ogni caso,  i test verificanti o falsificanti vanno 
ripetuti un certo numero di volte almeno finchè non danno un risultato che si 
giudica sicuro. è  accaduto per esempio per l’esperimento di Michelson­Morley 
che è stato escogitato per refutare o confermare l’esistenza dell’etere cosmico ed 
è stato ripetuto diverse volte con risultati alterni.  Qui Popper risponde alla 
critica proponendo un tipo speciale di convenzionalismo: sono gli scienziati che, 
con un accordo tacito o esplicito, convengono che un certo asserto (asserto­base) 
ha la caratteristica di un dato incontrovertibile e si può usare per la falsificazione 
di enunciati più complessi. 
   Un problema di non facile soluzione per Popper è  definire le condizioni a cui 
sono falsificabili  le leggi o le generalizzazioni probabilistiche, p.es. “il  51% dei 
bambini è maschio alla nascita”. Quale campione di bambini osservato si 
potrebbe considerare falsificante per la generalizzazione in questione?
    Su un punto Popper mostrava un indubbio vantaggio sui neopositivisti. Non ha 
senso chiedere a un osservatore “che cosa vedi nel microscopio?” perché 
nessuno può descrivere in un tempo finito  ciò che si vede in un dato momento. 
L’idea che esista un osservatore neutro che funziona come una macchina 
fotografica perfettamente passiva è un mito empirista. Noi facciamo delle 
osservazioni per rispondere a problemi che ci vengono posti (p.es. per sapere se 
in una data posizione si trova o no  una macchia rossa) e tali  domande 
dipendono dalla  teoria che stiamo sottoponendo a test.  L' apprendimento 
procede per prove ed errori e non per ripetizione cumulative di esperienze, come 
ingenuamente pensavano  gli empiristi. La teoria sotto indagine quindi guida ciò 
che chiamiamo osservazione, anche se ovviamente potrebbe essere falsificata 
dall’ osservazione stessa.
   
§2.  Negli anni cinquanta il rapporto teoria­osservazione – e quindi la dicotomia 
teorico­osservativo – diventava un tema di sempre maggiore importanza, anche 
perché  c’era una disciplina, la psicologia della percezione, che  poteva mettere a 
disposizione dei filosofi una massa cospicua di risultati di cui era obbligatorio 
tenere conto.
       Nello stesso tempo si doveva registrare un fatto che sicuramente giocava a 
sfavore del neopositivismo. L’autore del Tractatus, dopo un periodo di silenzio 
interrottosi con la sua  chiamata  a Cambridge nel 1928, aveva ripensato
le idee   del suo capolavoro e proposto un punto di vista che appariva nuovo. 
Questo “secondo Wittgenstein” ha lasciato un solo testo a stampa, le  Ricerche 
FIlosfiche, apparse postme nel 1952, ma anche un’ impressionante mole di 
manoscritti sotto forma di diari e di note, a cui si devono aggiungere gli appunti 
presi dai suoi studenti nel corso delle lezioni.   Ciò che cambiava rispetto al 
Tractatus primariamente era la teoria del significato. Nel Tractatus una 
proposizione è significante se e solo se  è vera o falsa, e la sua verità consiste 
nell’essere rispecchiamento (immagine) di un fatto atomico o molecolare. Ma il 
secondo Wittgenstein, influenzato forse dallo studio dell’etnoantropologia 
(sappiamo che scrisse una recensione a “Il ramo d'Oro” di Frazer) vede ora che 
il significato di un enunciato non è  offerto dalla verificabilità di un suo rapporto 
proiettivo con il mondo dall’insieme di regole che ne governano l’uso. Allo 
stesso modo in cui il  significato della torre negli scacchi, poniamo, è dato non 
dall’avere la forma di una torre ma dall’insieme di regole che ne governano l’uso 
nel gioco degli scacchi, così il senso di una parola come, poniamo, “bellezza” 
non è dato dal riferirsi a un oggetto chiamato “bellezza” ma dalle regole che ne 
governano l’uso in una lingua come l’italiano (teoria dei giochi linguistici). Il 
linguaggio comune, non  il linguaggio perfetto della logica, diventa dunque 
l’oggetto primario di indagine insieme allo slogan “non chiedete il significato, 
chiedete l’uso”.  I seguaci di Wittgenstein in Inghilterra (Strawson, Anscombe, 
Ryle, Toulmin), che sono tuttora numerosi, trasformarono questa filosofia in una 
“filosofia del linguaggio ordinario”, che dal loro punto di vista si riduceva di 
fatto all’analisi della lingua inglese. 
    Wittgenstein  aveva familiarità con la cosiddetta “teoria della Gestalt”, 
secondo cui non esiste un vedere che non sia percezione strutturata di una forma. 
Esempi famosi sono il cubo di Necker e l’immagine del duck­rabbit , una figura 
ambigua che può essere “letta” come un papero o un coniglio e che Wittgenstein 
riproduce nelle Ricerche Filosofiche. La tesi di Wittgenstein è che la 
disponibilità di un certo linguaggio condiziona la percezione stessa. Chi non ha 
mai visto la neve, come certi popoli dell’Africa,non possiede nel suo linguaggio 
la parola “neve” e non può riconoscere qualcosa come neve. Nello stesso tempo, 
come osservava il linguista Benjiamin Lee Whorf, gli esquimesi che hanno venti 
termini diversi per indicare  tipi di neve, “vedono” diversi tipi di neve  che noi 
non siamo in grado di riconoscere come tali. 
    Il secondo Wittgenstein dunque rovescia il rapporto tra linguaggio e 
osservazione.   Applicata all’epistemologia questa concezione aveva alcune 
immediate implicazioni, evidenziate da N.R.Hanson in Patterns of Discovery 
(1958). La logica simbolica e la matematica cessavano di fornire il linguaggio 
ideale della scienza. Ciò che diventava importante  sono gli usi  che gli scienziati 
fanno dei termini  di cui dispongono e che determinano il loro senso. Teorie 
diverse comportano giochi linguistici diversi, anche se i  segni grafici o acustici 
coinvolti possono essere  identici.  Il termine “terra” usato da  Tolomeo non ha lo 
stesso senso del termine “terra” usato da Keplero perché il suo senso è 
determinato dalle regole che lo connettono ad altri termini come “sole”, “cielo” 
ecc. , e tali regole sono diverse da teoria a teoria.  Quindi le osservazioni 
descritte entro teorie diverse sono osservazioni diverse. Quando Tolomeo e 
Keplero guardano il sole “vedono” due cose diverse. Tolomeo “vede” un oggetto 
mobile, Keplero “vede “ un oggetto immobile, allo stesso modo in cui qualcuno 
può vedere un papero e un altro un coniglio in una figura gestaltica. I dati 
empirici, si dirà sempre più frequentemente, sono “carichi di teoria”. La teoria 
condiziona lo stesso livello osservativo. Si tratta di idee non completamente 
nuove. Basta  notare che intorno al 1935 un medico polacco, Ludwig Fleck, 
aveva già evidenziato la natura strutturata della percezione in un libro riscoperto 
anni dopo, “Genesi e sviluppo di un fatto scientifico”, che ripercorreva la 
scoperta della reazione Wasserman.
    Questo nuovo modo di intendere l’osservazione scientifica è  stato proposto da 
M.Polanyi  all’inizio degli anni 50, anche se si è diffuso con “Patterns of 
Discovery” di N.R.Hanson (1958). Qui Hanson per la prima volta presenta la 
scoperta scientifica come un’ impresa volta alla determinazione di “modi di 
vedere”. Sono questi “modi di vedere” che hanno la funzione che Hempel 
assegnava alle leggi e alle teorie nell spiegazione. Qualcosa è spiegato quando 
trova un posto entro una Gestalt, una  visione dei fenomeni.
   Negli stessi anni Stephen Toulmin introduceva la metafora delle teorie come 
mappe, cioè rappresentazioni non­linguistiche della realtà.  Si tratta  sempre di 
un allontanamento dalla concezione neopositivista in quanto le teorie e le leggi 
cessano di essere entità linguistiche e la spiegazione cessa di essere un tipo 
particolare di ragionamento.  L’epistemologo ora non si occupa di ricostruire 
razionalmente entro un linguaggio ideale i risultati della scienza, ma si occupa 
del modo effettivo in cui gli scienziati giocano il gioco della scienza. è  chiaro 
allora che anche la dicotomia tra contesto della scoperta e contesto della 
giustificazione viene sostanzialmente superata, e parallelamente viene meno la 
distinzione (cara soprattutto a Popper) tra metodologia descrittiva e metodologia 
normativa. Cade la distinzione netta tra epistemologia,  psicologia della scoperta, 
storia della scienza e sociologia della scienza.
    Questo diverso orientamento, che era minoritario negli anni ‘50,  guadagnò
lentamente terreno, fino a diventare dominante negli anni ‘70 e ‘80. In mancanza 
di un termine preciso, lo si è chiamato postpositivismo o, meno bene, “nuova 
filosofia della scienza”.     La popolarità arrivò   sull’onda di un fortunato libro, 
“La struttura  delle  rivoluzioni  scientifiche”, il cui autore, Thomas Kuhn, era, 
significativamente, uno storico della scienza prestato alla filosofia. Kuhn aveva 
studiato per anni la rivoluzione copernica e si era convinto che il modo in cui si è 
passati   dalla   concezione   tolemaica   del   mondo   a   quella   copernicana 
esemplificava uno schema di sviluppo che si applicava allo sviluppo di tutte le 
scienze indistintamente . Lo schema di sviluppo consiste in questo. La comunità 
scientifica normalmente condivide in modo più o meno conscio un linguaggio 
(inteso come insieme di regole per l’uso dei termini) e un insieme di pregiudizi, 
dogmi, opinioni ereditate, che Kuhn non chiama teoria ma paradigma.  L’attività 
ordinaria  degli  scienziati  consiste  nella soluzione di  rompicapi    (puzzles) che 
vengono generati dall’ impiego del  paradigma stesso. Questa attività è chiamata 
da Kuhn scienza normale.
   Ci sono momenti in cui un  paradigma entra in crisi perché cessa di proporre 
problemi  interessanti e presenta anomalie  vistose che non si è in grado di 
risolvere con gli strumenti interni al paradigma. Dopo un periodo di crisi viene 
proposto da qualcuno un modo alternativo di vedere le cose, cioè un nuovo 
paradigma. Si entra così in una fase rivoluzionaria, che può  essere anche molto 
lunga, e che si concluda quando il nuovo paradigma conquista il consenso della 
generazione più giocane degli scienziati. Quando questo accade il vecchio 
paradigma viene seppellito, si riscrivono i manuali scientifici e si reimposta la 
ricerca creando un nuovo periodo di scienza normale.
   Dal momento che i paradigmi condizionano  il modo di vedere, rendono gli 
scienziati ciechi rispetto ai dati empirici che potrebbero falsificarli. Con buona 
pace di Popper,  gli scienziati  nella fase di scienza normale tendono a conservare
il   paradigma   vigente     perché   non   “vedono”,   né   possono   vedere   con   le   lenti 
offerte   dal   paradigma,     i   controesempi   falsificanti.     L’atteggiamento   degli 
scienziati non è molto diverso da quello degli artisti che seguono una corrente 
estetica , degli uomini di fede che aderiscono a una confessione religiosa o dei 
seguaci   di un partito che seguono un’ideologia. Il cambiamento di paradigma, 
che   a   volte   è   dovuto   alla   gemialità   di   un   unico   creatore   (Galileo,     Darwin, 
Einstein) è paragonato ad una conversione religiosa, dopo la quale il problema è 
solo convertire gli altri, cioè persuaderli a militare a favore del nuovo paradigma.
    è  da notare che nelle rivoluzioni scientifiche si ha una sostituzione di 
paradigmi, il che non vuol dire che nel cambiamento si registra un progresso. Si 
può parlare di progresso  entro un paradigma, ma non di un progresso nel 
passaggio da un paradigma a un altro. Ciò che è giusto o sbagliato è tale rispetto 
a un paradigma,  ma  non possiamo c  classificare un paradigma come giusto o 
sbagliato rispetto a un altro paradigma: i paradigmi, come dice Kuhn, sono 
incommensurabili. 
    Si attuava così nel campo dell’ epistemologia lo stesso passaggio al 
relativismo che gli  etno­antropologi avevano già introdotto nel campo delle loro 
discipline. è  chiara in particolare l’influenza che Kuhn ha ricevuto da B.L. 
Whorf, che infatti Kuhn cita nella sua prefazione. Per Whorf  gruppi etnici 
linguisticamente diversi vivono in  realtà diverse perché usano linguaggio 
diversi; per esempio gli indiani Hopi vivono in un mondo diverso dal nostro 
perché la loro nozione di tempo , registrata in un linguaggio diverso dal nostro e 
intraducibile con il nostro, è differente.  Chi crede nella intraducibilità dei 
linguaggi  non fa fatica a passare alla tesi kuhniana della intraducibilità delle 
teorie, anche se tanto gli aristotelici che Copernico parlavano la stessa lingua, 
cioè il latino.
   Allo stesso modo in cui non ha senso chiedersi se la cultura hopi è migliore o 
peggiore della nostra, così non ha senso chiedersi se il paradigma tolemaico è
migliore   o   peggiore   del   nostro.     Passando   al   nuovo   paradigma   perdiamo   la 
capacità di vedere che cosa c’è di buono nel vecchio paradigma. è  errato dunque 
dire che il vecchio    paradigma è “superato” dal nuovo, anche se ovviamente 
qualcosa del vecchio viene conservato,  mentre altro viene cancellato  . Questo 
perché   cambiare   paradigma   vuol   dire   cambiare   mondo:   Galileo   e   Tolomeo 
vivono   in   realtà   diverse,   stante   che   la   realtà   è   qualcosa   che   viene   percepito 
attraverso il filtro del paradigma.
   Queste idee, come si può capire, ebbero un enorme risonanza. Facevano cadere 
in un solo colpo il mito della  superiorità della scienza rispetto ad altre forme di 
rapporto con il mondo (letteratura, pittura, storia, ideologia) e mettevano in crisi
la convinzione che la scienza garantisse una conoscenza progressivamente
più  profonda del mondo.

§3. Nell’arco di pochi anni idee simili a quelle di Kuhn vennero sviluppate
da  studiosi di formazione diversa le cui  conseguenze si manifestavano in forme 
che apparivano anche più radicali. “Contro il metodo” di Feyerabend (un fisico 
passato alla filosofia) apparso nel 1975, porta l’antipositivismo di Kuhn alle 
estreme conseguenze.  Galileo – l’eroe positivo di questo libro – ottenne i suoi 
successi non applicando i metodi codificati dagli epistemologi tradizionali  ma 
violando sistematicamente le regole di quello che sarebbe stato poi codificato 
come un metodo scientifico. Ciò che Galileo  poteva  vedere nel suo famoso 
telescopio era ben poco rispetto a quanto diceva di vedere e soprattutto rispetto a 
quanto teorizzava di vedere:  ciò che importava era  catturare il consenso alle sue 
teorie e i dati sperimentali  avevano valore propagandistico. Si sa con certezza 
che, nonostante  gli venga ascritta la paternità del metodo sperimentali, Galileo 
non eseguì mai alcuni degli esperimenti  di cui  si faceva promotore. Gli 
esperimenti che Galileo prediligeva ( come quello della nave che doveva 
illustrare la relatività del moto) erano esperimenti mentali   e in questi si 
presupponeva spesso la teoria che gli esperimenti miravano a corroborare. 
   Lo slogan “tutto è teorico”, che divenne popolare anche in Italia negli anni ‘70, 
da   Feyerabend   veniva   integrato   con     lo   slogan   dell’anarchismo 
metodologico:”tutto va bene”. Le teorie scientifiche entrano in competizione tra 
loro   come   i   movimenti   politici   e,   sul   libero   mercato,     dominano   per   la   loro 
capacità   di     catturare   il   consenso.   Non   c’è   neppure   una   distinzione   netta   tra 
scienza e pseudoscienza: astrologia e magia nera  possono influenzare la scienza 
ed entrare in competizione con essa senza che ciò implichi una svalutazione della 
scienza stessa.
       L’anarchismo metodologico di Feyerabend, che andava di pari passo con la 
deregulation che si affermava in quegli anni negli Stati Uniti, convinse
molti, inizialmente sedotti dalle idee di Kuhn, che il nuovo relativismo stava 
spingendo in una direzione  pericolosa. Veniva messa in crisi non soltanto la 
capacità della scienza di descrivere un mondo oggettivo, ma la stessa distinzione 
della scienza rispetto ad altre attività che  non sono solo estranee alla scienza ma 
antiscientifiche.  Che cosa distingue  più, in un anarchismo coerente, la fisica 
dalle scienze occulte o dalla dianetica di Ron Hubbard? 
     Sulla strada  indicata da Feyerabend  pochi anni dopo si è sviluppata la 
filosofia di Richard Rorty, un filosofo che coerentemente con le proprie idee si è 
poi trasferito in un dipartimento di letteratura. In “La scienza e lo specchio della 
natura”(1979) Rorty annulla la distinzione tra linguaggio e mondo.  L’ipotesi che 
esista un mondo  speculare al linguaggio (metafisica del Tractatus) o un mondo 
indipendente dal linguaggio  non è necessaria. La verità non è la corrispondenza 
con un mondo “là fuori” ma l’asseribilità garantita dal consenso. “La razionalità 
scientifica – scrive Rorty­ è solo questione di essere aperti e curiosi,e di fare 
affidamento sulla ragione anziché sulla forza” : con il che si può  classificare per 
scienza più o meno tutto quello che  ottiene il consenso in modo non violento. 
Esiste una babele di linguaggi : il linguaggio della fisica, della sociologia, il 
linguaggio ordinario,  che hanno tra di loro rapporti complessi. Compito del 
filosofo è mettere in comunicazione questi linguaggi  operando delle traduzioni, 
o meglio delle interpretazioni. Il lavoro del filosofo è un lavoro ermeneutico , 
ben lontana dall’analisi logica dei postitivisti : incidentalmente, più simile al 
lavoro dello storico che Croce e Gentile proponevano come compito 
dell’intellettuale dopo la fine della filosofia. 
    Può essere interessante osservare che le radici del postpositivismo si trovavano 
già all’interno di alcuni orientamenti emersi all’interno del positivismo logico. In 
particolare Neurath, in dura polemica con Schlick, negava che  la verità di un 
enunciato atomico (p.es. il tavolo è rosso) si potesse  stabilire confrontando il 
linguaggio con un mondo extralinguistico. Gli enunciati si confrontano solo con 
altri linguaggi e non con dati sensoriali o “fatti” nel senso del Tractatus di 
Wittgenstein.  Che cosa allora rende un enunciato vero o falso ?
   Qui bisogna accennare al fatto che nella storia del pensiero si sono affacciate 
diverse teorie della verità, ma qui importa menzionarne due di grande 
importanza: quella corrispondentista e quella coerentista. Secondo i 
corrispondentisti  la verità di un enunciato consiste nel suo rispecchiare qualche 
aspetto reale del mondo (Aristotele : “dire il vero significa dire di ciò che è, che è 
e di ciò che non è, che non è”). Questo sembra ovvio, ma si pensi che ci sono 
molti casi in cui saremmo imbarazzati ad indicare la porzione di realtà (il fatto o 
i fatti, secondo il Tractatus)  a cui gli enunciati veri corrispondono. A che fatto 
corrisponde 2+2=4 ?  A che fatto corrisponde l’enunciato vero che tutti i corvi 
sono  colorati? Le leggi di natura sono  come questa sono  congiunzioni 
infinitarie: esistono allora fatti infinitari? A che fatto corrisponde l’enunciato 
negativo vero che Milano non è in Vietnam?
   I coerentisti evitano di agganciare la verità alla sfera dei fatti.  In tal modo, rotti 
gli ormeggi con la realtà, resta aperta solo la possibilità di valutare i rapporti 
degli enunciati tra di loro. Gli enunciati veri formano un insieme accettato e 
coerente (privo di contraddizioni) e la verità  di un enunciato consiste nel suo 
essere coerente con l’insieme degli enunciati accettati. Questa concezione è 
quella tipica degli  idealisti come Hegel o Croce, che  vedevano il mondo come 
una costruzione dello spirito.  Neurath in effetti anticipava da un lato  l’olismo di 
Quine , dall’altro il rifiuto dei postpositivisti a vedere nella scienza una 
fotografia della realtà.
   In effetti un’ obiezione che venne immediatamente opposta al nuovo trend 
postpositivista consisteva nell’accusare la nuova filosofia della scienze di essere
una   forma   di   idealismo   più   o   meno   camuffato.   I.   Scheffler   e   K.Kordig   in 
particolare,  con  due libri  tradotti  anche in italiano,   non avevano difficoltà a 
mostrare i punti deboli delle nuove concezioni. Il coerentismo in  particolare era 
una  fonte di  problemi.  Il  problema principale è che non c’è un solo insieme 
coerente di enunciati che può essere proposto come “accettato”. La coerenza può 
essere stabilita in vari modi. ”Domani piove e “domani non piove” sono due 
proposizioni   coerenti   con   quanto   sappiamo;   eppure   una   sola   della   due   sarà 
l’alternativa vera. 
     Certo il consenso degli scienziati si dirige verso alcuni insiemi coerenti di 
credenze piuttosto che  verso  altri. Ma,  se è per quello, anche sistemi paranoici 
di credenze come quello, p.es. Nazista ( che tra l'altro aveva ricadute importanti 
sul piano strettamente scientifico) hanno riscosso ampi consensi. Bisogna 
distinguere allora tra un consenso raggiunto con mezzi qualsiasi e un consenso 
razionale,  distinzione sulla quale  i postpositivisti  hanno detto ben poco.
    La produzione degli ultimi anni di Kuhn (scomparso nel 1996) mostrava una 
maggiore cautela nella difesa delle sue tesi di fondo. In particolare, Kuhn 
osservava  che nel repertorio di argomenti  con cui gli scienziati difendono un 
paradigma o decidono tra due paradigmi  in conflitto  hanno un peso maggiore le 
valutazioni basate sulla probabilità, sulla valutazione dell’evidenza e via 
dicendo. Inoltre, riconosceva che era meglio evitare di  dire che  paradigmi 
diversi determinano mondi diversi,  cercando di mettersi al riparo dall’accusa di 
propugnare una forma prescientifica di idealismo.

§3 Le posizioni più oltranziste nel postpositivismo non potevano non suscitare
delle reazioni vivaci e, come sempre accade, non potevano non stimolare dei 
tentativi di mediazione. Vale la pena di citarne due, che hanno avuto giustamente 
fortuna: quello di Lakatos e quello di Putnam.
      Quando   Lakatos   conobbe   in   Inghilterra   Popper   e   fu   catturato   nel   campo 
magnetico     suo   pensiero,   aveva   alle   spalle   una   vicenda   umana   e   filosofica 
tormentata. Ungherese, era stato   un filosofo di impostazione marxista e anche 
esponente   del   governo   rivoluzionario  di   Imre  Nagy   nel   1956,  che   venne   poi 
travolto dalla restaurazione filosovietica.  Il suo popperismo si è associato in una 
sintesi ben riuscita  con l’intuizione di fondo hegeliana secondo cui  la storia del 
pensiero ha una razionalità intrinseca. 
     L’idea di Lakatos  è questa: una  teoria accettata dalla comunità ha un nucleo, 
intorno al quale viene disposta una cintura protettiva di ipotesi, assunti ausiliari 
ecc. che la difendono dalle falsificazioni. Tra queste compaiono le ipotesi ad hoc 
non verificate, che per Popper erano contrarie all’ etica falsificazionista o l’uso 
della clausola ceteris paribus, che funziona come comodo ammortizzatore di 
fronte ad apparenti controesempi. La teoria cresce su se stessa espandendosi in 
varie direzioni e prende la forma di quello che Lakatos chiama programma di  
ricerca: un programma di ricerca non è una singola teoria ma una successione di 
teorie ciascuna delle quali è un aggiustamento della precedente .Esso nuota in un 
“oceano di anomalie” e se queste sono intollerabili viene abbandonata, ma viene 
abbandonata solo quando si rende disponibile un programma di ricerca migliore 
– cioè più ricco e in grado di risolvere i problemi del primo. La metodologia dei 
programmi di ricerca quindi cerca di coniugare il falsificazionismo popperiano 
con la visione storico­dinamica delle teorie inaugurata dai postpositivisti.
    Quanto a Hilary Putnam, è uno dei molti filosofi che hanno affrontato il 
problema più difficile che è implicito nella visione  postpositivista, che è la 
questione del realismo. Se le teorie scientifiche  rispecchiano la realtà, 
bisognerebbe concludere che il cambiamento delle teorie porti con sé un 
cambiamento della realtà? Se questo non accade, allora dobbiamo abbandonare 
l’idea che le teorie ripecchino la realtà e accettare che sono solo strumenti di 
previsione e di calcolo, come si è sostenuto varie volte negli anni 30 
(strumentalismo)? I postpositivisti hanno complicato la questione  facendo 
collassare la distinzione tra osservativo e teorico, per cui la teoria influenzerebbe 
i dati osservativi  e quindi la stessa percezione della realtà. Hilary Putnam ha 
proposto una  ragionevole mediazione  che ricorda la mediazione kantiana tra 
razionalismo ed empirismo. Rifiutando la sua  originaria adesione al “realismo 
metafisico” (il punto di vista di Dio), il  “realismo interno” di Putnam consiste 
nel dire che le teorie influenzano la descrizione del mondo e anche i problemi 
che vengono proposti alla scienza,  ma non al punto di condizionare le risposte e 
quindi la conoscibilità del mondo. Pur essendo un punto di vista kantiano, 
Putnam non accetta l'idea di un mondo noumenico , inconoscibile “in sè”.
 Indubbiamente c’è una differenza tra il classificare una balena come un pesce o 
come un mammifero, e questo naturalmente dipende da teorie presupposte.  Ma 
una volta descritta la realtà nella cornice di una teoria,  questa presenta elementi 
in grado di falsificare o confermare la stessa teoria da cui è descritta.  Il mondo 
non è in conoscibile, ma conoscibile attraverso il degli schemi concettuali.  Si 
può connotare l’acqua come “l’unico liquido trasparente, incolore, inodore” –
come si faceva ai tempi antichi­ oppure con H20, ma questo  cambiamento 
riguarda il modo in cui ci si riferisce alla stessa entità, e non la natura dell’entità 
stessa. Circa il modo in cui i termini di un linguaggio si riferiscono a oggetti del 
mondo Putnam ha sviluppato una teoria del riferimento (detta di Kripke­Putnam) 
secondo cui in virtù di un battesimo iniziale i modi di cui viene connotato un 
oggetto conserva sempre un aggancio
con un nucleo originario di significato condiviso.
  Invece di parlare di verità come corrispondenza a un mondo esterno, parleremo 
di accettabilità razionale.    Di sicuro, per Putnam, il relativismo è una posizione 
sbagliata : se non altro perché, come già aveva visto Socrate contro Protagora, il 
relativista deve    proporre il suo relativismo come qualcosa di assoluto, e quindi 
negare implicitamente il suo stesso relativismo nel momento in cui lo professa.

   

   

[BIBLIOGRAFIA ESSENZIALE reperibile in italiano
Hanson,N.R.      Patterns   of   Discovery   (1958)   Syndics   of   the   CAmbridge 
University Press, 1978 , trad.it  Feltrinelli,Milano 1978
Feyerabend,P.K., Against Method, NLB, 1975, trad.it. Contro il metodo, 
Feltrinelli,MI,1979
Kuhn, T. , The Structure of Scientific Revolutions, trad.it. La struttura delle 
Rivoluzioni Scientifiche, Einaudi, Torino, 1978
Kuhn,T., Sneed J.D., Stegmuller,W., Paradigmi e Rivoluzioni nella Scienza,
a cura di M.Baldini, Armando, Roma, 1983
Rorty,R, Philosophy and the Mirror of Nature, Princeton U.P. 1979; trad.it. “La 
filosofia e lo specchio della natura” Bompiani,MI, 1986
Lakatos,I.­Musgrave (a cura di), Criticism and the Growth of Knowledge, 
Cambridge U.P. 1970, trad.it.  Critica e Crescita della conoscenza, Feltrinelli, 
MI, 1976
Popper  ,K. Logik der Forschung, Springer, Vienna 1935, trad.it. in Logica della 
Scoperta Scientifica,, Einaudi,TO, 1974,
Popper, K. Realism and the aim of Science from the Postscipt to the Logic of 
Scientific  Discover,  a cura di  W.W.Bartley III (trad.it.   Poscritto alla Logica 
della Scoperta Scientifica,Il Saggiatore, MI, 1984
Putnam, H. Mente, linguaggio e realtà, tr. it. di Roberto Cordeschi, Adelphi, 
Milano, 1987.  Matematica, materia e metodo, tr. it. di Giovanni Criscuolo, 
Adelphi, Milano, 19
Quine,w.v.O.,  From a Logical Point of View, Harvard U.P, 1961, trad.it.  Il 
problema del significato. Ubaldini, Roma, 1966
Quine W.V.O,  Saggi Filosofici 1970­1981 , a cura di M.Leonelli, Armando, 
Roma  1982
Wittgenstein,L.  Philosophical Investigations, 1951  trad.it Ricerche Filosofiche ]
      
    
III. LOGICA E FILOSOFIA DELLE SCIENZE FORMALI

§1. Verso la  metà dell’800 un geniale matematico tedesco, Georg Cantor, pose 
le basi di una teoria  che era destinata a diventare, secondo un modo di pensare 
diffuso, non solo uno strumento concettuale prezioso  ma  il fondamento stesso 
di tutto il corpo della matematica: la teoria degli insiemi. 
     Cantor non dava una definizione  di insieme soddisfacente dal punto di vista 
contemporaneo, ma definiva in modo sufficientemente chiaro le operazioni tra 
insiemi e le relazioni tra insiemi. Le operazioni fondamentali tra insiemi sono : 
complementazione (−), unione (∪), intersezione (∩).
Le relazioni sono invece : appartenenza (∈)  e  inclusione, (⊆). è  importante non 
confondere queste due relazioni.  Ogni insieme A è incluso in se stesso in quanto 
tutti gli elementi di A sono elementi di A (A ⊆ A), ma normalmente, anche se 
non sempre, un insieme A non appartiene a se stesso (A ∉ A : l’insieme delle 
mele non è una mela)
     Esistono inoltre due insiemi speciali, il più piccolo di tutti o insieme vuoto 
(∅) e il più grande di tutti o insieme totale (V). 
       Che cosa distingue un insieme finito da un insieme infinito? La risposta di 
Cantor   sfrutta   una   proprietà   paradossale   degli   insiemi   infiniti:   essi   hanno   la 
stessa numerosità di alcuni loro sottoinsiemi propri (p.es., come già aveva notato 
Galileo, l’insieme dei numeri naturali N ha la stessa numerosità dell’insieme dei 
numeri pari, che è un insieme diverso da N  incluso in N).
     La maggior gloria di Cantor è stata la teoria del transfinito, cioè la scoperta 
che ci sono diversi tipi di infinito: l’insieme dei numeri reali per esempio è più 
numeroso dell’insieme dei numeri naturali, e da questo si può generare una 
gerarchia di insiemi di numerosità  crescente. Quando un  insieme è infinito o 
arbitrariamente grande, p.es. l’insieme dei numeri pari o l’insieme dei corvi, non 
possiamo descriverlo enumerando i suoi elementi (estensionalmente, come si 
dice) ma indicando la proprietà che gli elementi hanno in comune, e cioè 
menzionando la intensione o concetto che li accomuna. C’è un principio basilare 
che collega l’aspetto intensionale all’aspetto estensionale degli insiemi, il c. d. 
Principio di Comprensione:
(PC) Per ogni proprietà P esiste l’ insieme di tutti e solo gli elementi che godono 
di P.
Usando dei simboli si  può simbolizzare così: per ogni x, Px sse x ∈x: Px
Per esempio, data la proprietà “rosso”, esiste l’insieme di tutte e solo le cose 
rosse, mentre data la proprietà “essere un insieme infinito” esiste l’insieme di 
tutti e solo gli insiemi infiniti.  Con un passo ulteriore Cantor  scopre che 
possiamo rappresentare tutte i predicati relazionali come insiemi di insiemi 
ordinati di tipo particolare (p.es. la relazione “essere padre di” come l’insieme 
delle coppie ordinate di padri e figli) .  Le funzioni sono intese come relazioni di 
tipo  particolare , cioè relazioni della forma “molti­uno”.
    La descrizione delle relazioni tra insiemi può essere fatta entro  una logica con 
il linguaggio più complesso di quello che Wittgenstein definiva mediante le 
tavole di verità. Se dico
(U) “tutti gli uomini sono mortali”
 questo descrive una relazione tra insiemi, che potremmo anche descrivere 
dicendo
(U*)“l’insieme degli uomini è incluso nell’insieme dei mortali”. 
Alternativamente, invece di dire 
(E) Qualche uomo è mortale 
potremmo dire
(E*) L' intersezione tra insieme degli uomini e insieme dei mortali non è vuota.
   Il linguaggio proposizionale i cui connettivi sono descritti dalle tavole di verità 
contiene soltanto negazioni, disgiunzioni, congiunzioni, condizionali, ma la 
proposizione  (U) non rientra in nessuna di queste categorie. D’altro canto è 
assurdo dire che si tratta di un enunciato atomico, della stessa forma di “piove” 
perché non descrive  un fatto atomico, ma semmai ad  una composizione di 
infiniti fatti  atomici.  Per questo è necessario introdurre dei simboli appositi, i 
quantificatori, che ci consentano non solo di rappresentare proposizioni 
universali come U  ma di  distinguerle da altre più deboli come
(E) “qualche uomo è mortale” .   
    Gottlob Frege, il padre della logica contemporanea, introdusse una notazione e 
un insieme di regole per questi  operatori (i quantificatori), in modo che U ed E 
vengono rese rispettivamente da queste due formule: ∀x(Ux ⊃ Mx) e  ∃ x(Ux  ∧
Mx). In questo linguaggio con soggetti e predicati  avremo un numero infinito di 
predicati U, M, S…. e un numero infinito di variabili x,y,z… che sono, come si 
dice, vincolate dai quantificatori.
   I predicati possono essere semplici ma anche relazionali, come “avere un 
padre”. Per esempio “ogni corvo ha un padre” diventa una formula complessa 
come ∀x(Cx ⊃ ∃y Pyx). Come abbiamo visto, i neopositivisti sosterranno in 
seguito che questo linguaggio standardizzato è il linguaggio ideale della scienza, 
e che compito primario dello scienziato   è  parafrasare il linguaggio ordinario
in  questo linguaggio perfetto.
      Con Frege per la prima volta la logica riceve un’assiomatizzazione. Viene 
cioè stabilito un insieme di  enunciati fondamentali da cui, mediante  regole 
molto semplici, si è in grado di  derivare la totalità delle leggi logiche, 
proposizionali e quantificate, sotto forma di teoremi. Ma c’è di più: Frege ritiene 
che dagli assiomi della logica si possa derivare, mediante la logica stessa, tutta la 
teoria degli insiemi e tutta l’aritmetica. Si noti infatti che  “essere un insieme” è 
un predicato come un altro e le due relazioni di appartenenza e di inclusione 
sono relazioni né più né meno come “padre di” e si possono quindi rappresentare 
entro la logica dei quantificatori. Per il resto, è ovvio che intersezione, unione e 
complementazione  si possono rappresentare mediante i connettivi proposizionali 
di congiunzione, disgiunzione e negazione rispettivamente (p.es. l’insieme delle 
cose rosse e quadrate è l’intersezione dell’ insieme delle cose rosse con le cose 
quadrate)
     è  degno di  nota che  le funzioni , tanto matematiche che non matematiche 
(p.es. quella che correla peso e statura di un individuo) si lasciano rappresentare 
come relazioni di tipo particolare , cioè relazioni della forma molti­uno. Una 
particolare funzione è la corrispondenza biunivoca, che mette in correlazioni 
insiemi della stessa numerosità, p.es. l’ insieme formato da Romolo e Remo e 
quello formato da Caino e Abele. Per stabilire questa corrispondenza non è 
necessario possedere il concetto di numero. In compenso, possiamo definire la 
nozione di numero cardinale mediante la nozione di corrispondenza biunivoca. 
Possiamo creare l’insieme di tutti gli insiemi che possono essere messi in 
corrispondenza con l’insieme formato da Romolo e Remo e chiamarlo “Numero 
2”. Allo stesso modo, possiamo formare l’insieme di tutti gli insiemi che si 
possono mettere in corrispondenza biunivoca con l’insieme dei Tre Moschettieri 
e chiamarlo “numero 3” e così via all’infinito. Lo zero sarà ovviamente l’insieme 
formato dall’insieme vuoto.
   Frege fa vedere come le operazioni dell’aritmetica ­ Somma, 
sottrazione,moltiplicazione, divisione ­ si possono definire in termini 
insiemistici.
 In quegli anni un italiano, Giuseppe Peano, aveva formulato gli assiomi per 
l’aritmetica (aritmetica di Peano) e Frege fece vedere che questi assiomi si 
potevano derivare dalla teoria degli insiemi e quindi indirettamente dalla logica.
    I rami superiori dell’aritmetica –calcolo delle probabilità, calcolo 
infinitesimale, teoria dei numeri complessi, ecc. per Frege erano costruibili come 
rami dell’aritmetica, e quindi indirettamente come rami della logica.
      Questa imponente costruzione concettuale, che Frege chiamava programma  
logicista, rappresentava   il primo tentativo di dare un fondamento alle scienze 
formali   assicurando   nelle   stesso   tempo   ad   esse   un   linguaggio   comune   e   un 
insieme di regole di ragionamento perfettamente codificate, offerte dalla logica.
è degno di nota che  in questo programma veniva rovesciato il rapporto tra logica 
e matematica che altri, come  Gorge Boole, avevano esplorato con successo. 
Secondo Boole la logica si poteva ricostruire come un ramo particolare 
dell’algebra interpretando le variabili x,y,z… coma classi di oggetti e i segni .,+,­ 
come  operazioni su classi. In tal modo Boole ricostruiva la  parte valida della 
sillogistica aristotelica, ma non era in grado di rappresentare la logica di 
enunciati  più complessi come quelli relazionali.
    Purtroppo questo ottimismo fondazionale era destinato a durare poco. Un 
giovane studioso inglese, Bertrand Russell, che intratteneva, già a 18 anni, un 
fitto carteggio con Frege, rilevò che il principio di comprensione, essenziale per 
la teoria degli insiemi fregeana, portava a una contraddizione,o meglio  ad una 
antinomia.
   Abbiamo visto che normalmente gli insiemi non appartengono a se stessi, 
anche se insiemi molto grandi, come l’insieme di tutti gli insiemi, godono di 
questa proprietà. Chiamiamo dunque “normali” gli insiemi che non si si 
autoappartengono. Per il  principio di comprensione allora esiste
l’insieme di tutti e soli gli insiemi normali (cioè un insieme che contiene questi e 
solo questi). Chiamiamo N questo insieme e chiediamo N ∈  N o N ∉  N?  Tutte 
e due le domande, come si può facilmente vedere, portano ad una contraddizione 
:  abbiamo quindi che N ∈  N se e solo se N ∉  N.
    è  falso dunque che esiste l’insieme N, il che però  mette in crisi il principio di 
comprensione.   Si noti che questa antinomia assomiglia all’antinomia del 
mentitore: “Io mento” implica che dico la verità, ed è strano che Frege non 
avesse visto la difficoltà.
        Russell cercò di correggere la costruzione di Frege  introducendo una 
gerarchizzazione degli insiemi in insiemi, insiemi di insiemi, ecc. Ciascuno di 
questi appartiene a un tipo diverso, e Russell introduce la convenzione che  si 
può parlare di appartenenza solo di qualcosa rispetto a qualcosa di tipo superiore. 
Non si può quindi mai dire che x ∈ x o x ∉  x.  Le complicazioni della teoria dei 
tipi furono però tali da far desistere lo stesso Russell dal continuare su questa 
strada. è  stato suo merito, comunque, se nei  tre ponderosissimi volumi dei 
Principia Mathematica (scritti insieme a A.N. Whitehead nel 1910) sono stati 
poste le basi della logica contemporanea, anche nello stile notazionale che è 
diverso da quello di Frege. 

§2. In quegli anni il programma logicista, per quanto sostenuto dal prestigio di 
Frege, Russell e Whitehead, non era l’unica risposta al problema  che in quel 
momento era  più  avvertito, quello dei fondamenti della matematica. Due altri 
orientamenti di pensiero si affermavano  in quegli stessi anni: quello intuizionista 
di Brouwer e quello formalista di Hilbert.  L’intuizionismo è di fatto
un ramo di quello che oggi viene più genericamente chiamato costruttivismo. Si 
tratta dell’idea per cui  un enunciato A è vero quando esiste una dimostrazione di 
A, e falso quando esiste una dimostrazione di non­A, cioè una refutazione di A. 
Per qualche A potrebbe non esserci né una dimostrazione né una refutazione: 
così accade per esempio per la congettura di Goldbach (ogni numero pari è la 
somma di due numeri primi), che è stata verificata dai computer per numeri 
astronomicamente grandi, ma non è mai stata dimostrata né refutata dagli 
assiomi di Peano. Questo comporta un abbandono della legge del terzo escluso.
  Brouwer   ci   metteva  di   suo   una   forma  particolare  di   mentalismo,   per   cui   la 
matematica è una costruzione della   mente umana, sganciata dal linguaggio. I 
numeri naturali secondo lui sono oggetto di un’intuizione primaria che genera la 
successione   numerica,   e   il   problema   per   Brouwer   e   il   suo   più   importante 
continuatore (H. Heyting) diventa naturalmente spiegare i numeri irrazionali ( il 
continuo)   e   introdurre   metodi   dimostrativi   che     sopperiscano   alla   perdita   di 
quello   strumento   fondamentale   di   ragionamento   che   è   il   terzo   escluso. 
Nonostante   l’avversione   di   Brouwer   per   i   formalismi,   la   logica   intuizionista 
proposta da Heyting è oggi studiata con i metodi della logica simbolica.
    David Hilbert si colloca agli antipodi di Heyting escludendo completamente la 
componente psicologica. I rami della matematica per lui sono sistemi formali, 
intesi come  giochi di segni governati da assiomi e regole che ne consentono la 
manipolazione concreta. Il significato associabile a questi simboli (la cosiddetta 
dimensione semantica) non ha alcun ruolo essenziale nella costruzione di un 
sistema formale. La matematica diventa quindi lo studio generale dei sistemi 
formali , come poi dirà il più importante formalista post­hilbertiano, H.B. Curry. 
Un sistema di segni è accettabile quando è privo di contraddizioni (consistente), 
e il problema della consistenza diventa allora il problema cardinale del 
formalismo. Una volta dimostrato che il problema della consistenza della 
geometria e di altre teoria formali si riduceva la problema della consistenza 
dell’aritmetica, si trattava di studiare il problema della consistenza 
dell’aritmetica di Peano  restando, per così dire, al suo interno.  Secondo Hilbert 
questo si poteva fare escludendo il riferimento all’infinito  e operando   con 
metodi “finitisti”, trattando le totalità infinite  “come se “ esistessero realmente 
alla stregua delle totalità finite. Il problema è arduo perchè si tratta di operare 
senza  ricorrere al cosiddetto principio di induzione matematica, che entra in 
gioco quando cerchiamo di dimostrare che  infiniti oggetti godono di una stessa 
proprietà.  Siano a0….. an,an+1…..    infiniti oggetti a cui venga associato un 
numero naturale. Se voglio dimostrare, p.es. che sono tutti divisibili per due, 
dimostro in primo luogo che a0 è divisibile per 2 e poi, ipotizzando che un 
qualsiasi an sia divisibile per due, dimostro che il successivo a n+1 è pure 
divisibile per 2. 
    Senza questo principio è impossibile dimostrare  teoremi anche molto 
semplici, per es. 
Per ogni x,y,z :  x +(y +z) = (x +y) + z
     La logica   opera   ora come teoria della dimostrazione o “metamatematica”, 
cioè   come   insieme   di   metodi   atti   a   dimostrare   dagli   assiomi   le   proposizioni 
matematiche   anche   intuitivamente   semplici,   come   a=a   (teoria   della 
dimostrazione) e a stabilire la consistenza dei sistemi formali. Gli enunciati di 
contenuto infinitario vengono trattati come complessi simbolici soggetti a regole 
precise e quindi depotenziati della loro portata metafisica.
        Von Neumann riuscì a dimostrare la consistenza di un sistema più debole 
dell’aritmetica di Peano, l’aritmetica con induzione limitata a proprietà non 
infinitarie. C’ era la speranza che si potesse arrivare in pochi anni a dimostrare lo 
stesso risultato per l’aritmetica di Peano.
    Un problema strettamente collegato è quello della decidibilità. Un  sistema è 
decidibile quando in un tempo finito si può stabilire se un enunciato gli 
appartiene oppure no.  Come disse Hilbert a un famoso convegno, il problema 
della decisione è il problema fondamentale delle scienze formali.
Il problema della consistenza dell’aritmetica è il problema di sapere in tempo 
finito (quindi di decidere) se una contraddizione, p.es. 0≠ 0, appartiene o no ad 
essa. Anche su questo regnava un certo ottimismo perché, p.es. M. Presburger 
aveva provato la decidibilità del  frammento dell’aritmetica di Peano con la sola 
addizione. 

§3. Purtroppo nel giro di pochi anni  le aspettative riposte nella capacità dei 
sistemi formali di catturare i contenuti del pensiero formale ricevevano una serie 
di  dure smentite. In primo luogo Alfred Tarski dimostrava che il predicato di 
verità non può essere definito entro il linguaggio di una teoria consistente che 
contenga l‘ aritmetica    ma solo entro il metalinguaggio della stessa. In altre 
parole non si può dimostrare in una teoria di questo genere l’enunciato: “A  è 
vera se e solo se  A” o “A è falsa se e solo se non­A” (altrimenti  avremmo, per 
un certo A, e precisamente l’enunciato “questo enunciato è falso”, che esso è 
tanto vero che falso: questa è la ben nota antinomia del mentitore).
Tarski comunque riusciva a dare un senso rigoroso alla parola “vero” entro il 
metalinguaggio della logica dei quantificatori, associando ad ogni predicato 
l’insieme degli enti  che ne godono e parafrasando,p.es. “la neve è bianca” in 
“l’oggetto designato dalla parola “neve” appartiene all’insieme delle cose 
bianche”.
       Kurt Gödel nel 1933 dimostrava un doppio risultato limitativo di   enorme 
portata tecnica e filosofica.   Il c.d. “primo teorema di Gödel” si può esprimere 
così :”Ogni teoria  consistente che contenga l’aritmetica di Peano è incompleta, 
cioè non contiene tutti gli enunciati aritmetici veri”. 
Ci sono dunque enunciati aritmetici veri che non possono essere dedotti da un 
sistema assiomatico contenente l’aritmetica di Peano. Questo sorprendente 
risultato è reso possibile da un metodo, scoperto dallo stesso Gödel, che consente 
di  codificare in linguaggio  matematico tutti gli asserti esprimibili nel linguaggio 
logico (gödelizzazione).  Qualunque successione finita di formule, p. es.
A  ⊃ A, viene associata univocamente a un numero di codice –il suo numero di 
Gödel– che la esprime. Dato quel numero di codice, possiamo risalire alla 
formula che gli corrisponde. 
  Supponiamo ora di costruire una formula logica S che dica: S è indimostrabile 
(cioè dica di se stessa che è indimostrabile, allo stesso modo in cui il mentitore 
dice di se stesso “io sto mentendo”).  
Le dimostrazioni sono sequenze di formule, quindi la proposizione asserente un 
reapporto di dimostrabilità (Dim(x,y)) è vera quando x è  il numero di Gödel di 
una sequenza dimostrativa che termina con una formula con numero di Gödel y.
Questa relazione, come Gödel mostra, è decidibile, cioè si può sempre decidere 
se è vero o no che Dim(x,y). Gödel dimostra che se R è una relazione decidibile 
e R(m,n) è vero allora si dimostra nell’aritmetica R(m°,n°), dove m°,n° sono i 
numeri di Gödel che rappresentano m,n ; mentre se R(m,n,) è falso allora si 
dimostra non­R(m°, n°). Questo vale anche se R è precisamente  il predicato 
Dim.
     Prendiamo ora la formula logica che asserisce, mediante opportuno impiego 
dei numeri di Gödel, (G) “io  non  ho la relazione Dim con me stessa”.   Se per 
assurdo   G   si   potesse   dimostrare   sarebbe   vera.   Ma   in   tal   caso   essa   sarebbe 
dimostrabile   per   la   proprietà   vista   rispetto   a     ogni   relazione   R(m,n)   che   sia 
decidibile, il che porta a una contraddizione. Quindi se G è dimostrabile G è 
falsa. Per converso: se G è vera, essa è   indimostrabile. Ma allora G è vera! 
Infatti   G   asserisce   la   propria   indimostrabilità:   e,   poiché   è   indimostrabile, 
asserisce qualcosa di vero.
    Quindi ci sono asserti matematici veri che sono, per quanto si è visto, 
indimostrabili. A questo risultato Gödel aggiunge  un altro elemento, e cioè  che 
per   enunciati come G, non solo G ma anche la   negazione di G è 
indimostrabile. Quindi l’aritmetica è incompleta e anche indecidibile, perché la 
verità e la falsità di certi enunciati come G non può essere stabilita con i mezzi 
del sistema.
  Il secondo teorema di Gödel, corollario del primo,  consiste  nel far vedere che 
se un sistema come l’aritemtica di Peano può dimostrare la formula che esprime 
la sua stessa consistenza, allora potrebbe dimostrare G. Ma poiché G non è 
dimostrabile, la formula che esprime la consistenza dell’aritmetica non è neppure 
dimostrabile entro l’aritmetica di Peano. Il programma di Hilbert, che aspirava a 
dimostrare la consistenza dell’aritmetica  usando il frammento finitista della 
stessa, si rivelava quindi  infondato.
    La portata filosofica dei due teoremi di Gödel è stata  formidabile. 
Un’implicazione che si è voluto ravvisare, incoraggiata peraltro dallo stesso 
Gödel, era che nessun dispositivo  che applichi sistemi meccanici di 
dimostrazione è in grado di  dimostrare  asserti veri  che la mente umana è 
evidentemente in grado di catturare. Di qui il riaccendersi di discussioni, del 
resto mai sopite , sul dualismo animo­corpo e  sulla rappresentabilità della mente 
come computer. 

[Bibliografia reperibile in italiano
C.Mangione e S. Bozzi, Storia della logica.Da Boole ai nostri giorni, Garzanti, 
Milano 1993
J.Crossley   e   altri,  What   is   Mathematical   Logic?,  Oxford   U.P.   1972,   trad.it. 
Boringhieri, Torino, 1976
G. Lolli, Filosofia della matematica,  Il Mulino, Bologna, 2002
S.G: Shankar (a cura di) Il teorema di Gödel, Muzzio, Padova, 1991
C.Toffalori e P. Cintoli, Logica Matematica, McGraw­Hill, Milano, 2000]
IV.   Il   PROBLEMA   DELL’INDUZIONE   E   I   FONDAMENTI   DELLA  
PROBABILITA'

§1.     Secondo   la  dottrina  tradizionale  la  differenza  tra  inferenza  deduttiva e 
induttiva  si può tracciare così: la prima  va dal  generale al  particolare, l’altra 
in   direzione   opposta.   Per   esempio   da   “tutti   i   corvi   sono   neri”   si   deriva 
deduttivamente   “tutti   i   corvi   osservati   sono   neri   ”,   mentre   il   ragionamento 
induttivo sarebbe quello per cui da “tutti i corvi osservati sono neri” si deriva 
“tutti i corvi sono neri”.  
      L’idea   tuttavia   è   sbagliata   per   vari   motivi.   Uno   di   questi   è   che   ci   sono 
inferenze induttive che non rientrano nello schema   sopra offerto. Per esempio 
l’inferenza da “tutti i corvi osservati sono neri” a “il prossimo corvo è nero” (a 
volte chiamata eduzione) non   rientra nello schema visto, eppure è chiaramente 
un tipo particolare di induzione. 
   Un modo  semplice per caratterizzare, almeno in prima approssimazione, la 
differenza tra i ragionamenti si ha dicendo che nella transizione dalle premesse 
alle conclusioni alcuni ragionamenti vanno oltre quanto asserito nelle premesse 
permettendo un possibile incremento della nostra conoscenza (ampliativi) ed altri 
che non godono di questa proprietà. 
  Volendo, potremmo caratterizzare come induttivi i ragionamenti ampliativi, e 
deduttivi quelli non ampliativi. Ma qui è opportuno fare una distinzione 
all’interno della classe dei ragionamenti ampliativi. Prendiamo  questi due 
enunciati:
(sa)“ se il fiammifero è stato sfregato si è acceso”
(as)“se il fiammifero si è acceso, allora è stato sfregato”.
    Sono ambedue ampliativi,  ma il loro senso è diverso. Il primo ci permette di 
passare da una causa all’effetto, il secondo da un effetto a una presunta causa 
(più   generalmente   :   dall’explanans   all’explanandum)   .   Anche   il   grado   di 
attendibilità del ragionamento è diverso. Infatti nel primo caso possiamo ritenere 
che la conclusione sia altamente attendibile, purchè ovviamente il fiammifero sia 
in condizioni normali (sia abbastanza asciutto ecc.). Nell’altro caso invece la 
conclusione   è   più   aleatoria.   Infatti   ci   sono   diversi   modi   per   accendere   un 
fiammifero: lo si può sfregare, ma anche mettere vicino a una sorgente di calore. 
Il motivo per concludere, dal fatto che un fiammifero si è acceso, che è stato 
sfregato,  dipende dalle informazioni di cui disponiamo. Se per esempio vediamo 
che vicino al fiammifero mancano superfici ruvide o carta vetrata e che c’è una 
candela   accesa, la cosa migliore è concludere che il fiammifero è stato messo 
nella fiamma della candela.
   Per distinguere queste forme di inferenza ampliative, chiameremo induzione la 
prima e abduzione la seconda, recuperando una tripartizione teorizzata dal 
filosofo americano Peirce.
   Il discorso sull’abduzione  in questa sede si può solo accennare. Secondo 
Peirce c’è una sorta di istinto abduttivo che ci porta a lanciare congetture 
esplicative e a selezionare l’ ipotesi  migliore. è  questo istinto che guida 
Sherlock Holmes nella sua ricerca del colpevole e  uno scienziato come Keplero 
nella ricerca della traiettoria dei pianeti. Ci sono in effetti due fasi del 
procedimento abduttivo: la prima creativa (che consiste nel lanciare ipotesi ), la 
seconda selettiva, che consiste nel selezionare l’ ipotesi migliore  eliminando una 
dopo l’altra le ipotesi peggiori. Mentre la selezione può essere effettuata in modo 
razionale, e quindi codificata come una logica vera e propria, è dubbio che 
l’abduzione creativa – come la creatività in generale – possa essere codificata.   
§2.  Il problema dell’induzione.
   L’induzione è stata all’origine di problemi non solo logici ma strettamente 
filosofici.  Il problema di Hume, come è noto, è il seguente: non c’è nessuna 
garanzia logica che il futuro sia simile al passato, o più genericamente che 
l’ignoto sia simile al noto. In termini statistici: l’inferenza induttiva consiste nel 
passare da un  campione all’universo, ma non c’è nessuna garanzia logica del 
fatto che le proprietà riscontrate nel campione si manifestino anche 
nell’universo. Ovviamente il campione deve rispettare dei requisiti ben noti agli 
statististici: in primo luogo deve essere randomizzato, omogeneo e 
sufficientemente ampio (si pensi alla scelta accurata dei campioni nei cosiddetti 
exit polls, che consentono  di anticipare i risultati elettorali nel giro di pochi 
minuti con grande approssimazione). Anche così non c’ è nessuna garanzia che 
l’inferenza ci porti infallibilmente a conclusioni vere.  Basti pensare al fatto che 
dopo aver osservato un numero enorme di cigni bianchi, si era convinti verso il 
1600 , che fosse vero che tutti i cigni sono bianchi. La scoperta dell’Australia, di 
cui prima non si sospettava neppure l’esistenza, portò invece una sorpresa, 
perché si scopri l’esistenza di una tribù di cigni neri.
   Verso il 1945 Nelson Goodman presentò un argomento logico per mostrare che 
nel passare dal campione all’universo  siamo legittimati a  inferire tutte le 
conclusioni che  ci piacciono. Immaginiamo di aver osservato fino a oggi (2005) 
milioni di smeraldi verdi e nessuno smeraldo di altro colore. Introduciamo ora un 
predicato perfettamente definito che è 
Verdlù: verde  e osservato prima del 3000 oppure blu  e osservato dopo il 3000.
   Per la logica, se uno smeraldo è verde e osservato prima del 3000  allora a 
fortiori è verdlù (basta che un disgiunto sia vero perché la disgiunzione è vera) e 
tali sarà dopo il 3000 per un ragionamento induttivo. Ma che accade dopo il 
3000? Non saranno  certo “verdi  e osservati prima del 3000”, quindi varrà l’altro 
corno del dilemma: saranno blu  e osservati dopo il 3000, quindi saranno blu.
    Le soluzione al rompicapo sono state diverse. Secondo alcuni dovremmo porre 
dei limiti ai predicati usati. Questo  sembra la morale da trarre anche da un altro 
paradosso, quello di Hempel.
    (C )“Tutti i corvi sono neri” equivale a 
(C*)“Tutti gli oggetti non­neri sono non­corvi”. 
Secondo la teoria della conferma di Hempel C, cioè che tutti i corvi sono neri, è 
confermato da “a è corvo & a è nero, b è un corvo e b è nero “  ecc. e la 
conferma aumenta con l’aumentare dell’evidenza confermante. A parità di 
ragionamento, C* è confermata  da “a non è nero e a non è un corvo” ecc. . 
Questa seconda evidenza confermerà però che tutti i corvi sono neri, dato che C 
e C* sono equivalenti. Basta allora l’osservazione di una scarpa gialla o di un 
tavolo verde per confermare che tutti i corvi sono neri.
      Eliminando   (ma è  difficile   dire come)  predicati  non standard come  “non­ 
corvo”, “non­nero”, verdlu’ ecc.  sembra che i paradossi della conferma in queste 
formulazioni   spariscano.   Ma   non   sparisce  il   problema   basilare  di  Hume,  che 
aveva puntato il dito sul fatto che ogni inferenza induttiva è logicamente errata: 
si   può   benissimo     immaginare   un   mondo   “miracoloso”   in   cui   il   fiammifero 
sfregato non si accenda, gli smeraldi diventino blu e addirittura un mondo in cui 
a partire da questa notte spariscano tutti i fiammiferi  e tutti gli smeraldi.

§3. Risposte alla sfida di Hume (la giustificazione dell’induzione).
Il problema principale dunque è la giustificazione dell’induzione.  L’induzione, 
come si è detto è la gloria della scienza e lo scandalo della filosofia.  Quindi 
dobbiamo trovare motivi che non solo ci dicano che cosa rende valida 
l’induzione ma  ci diano criteri per scegliere  tra conclusioni induttive diverse ed 
eventualmente incompatibili. 
     Il   problema dell’induzione è strettamente connesso a un altro:   infatti noi 
siamo alla ricerca anche di criteri per distinguere tra generalizzazioni vere per 
accidente e generalizzazioni nomiche, cioè che che costituiscono leggi di  natura. 
P.es:
“Tutti i pianeti hanno un  nome di un dio greco”
“Tutti i pianeti ruotano in ellissi”
hanno la stessa forma e sono ben confermate, eppure la prima non è una legge, la 
seconda sì. 
   Dal  punto di vista di Popper non c’è nessun problema dell’induzione perché 
l’induzione  non  ha alcun  ruolo  nella scienza.  Le leggi secondo Popper  non 
sono   confermate   (cioè   non   ricevono   nessun   valore   di   probabilità)   ma   sono 
corroborate:   in   altri   termini   sono   solo   ipotesi   che   hanno     resistito   a  test 
elaborati con la sincera intenzione di scalzarle. La corroborazione “assomiglia” 
alla conferma ma  si distingue soprattutto perchè non ha senso assegnarle dei 
valori numerici 
         Le risposte al problema della giustificazione sono state molteplici ma qui 
distingueremo solo quelle  che hanno dominato il campo nel ‘900.

a.Teorie   presupposizionali   dell’induzione  (Mill,   Keynes,   Burks).   Oggi   poco 


popolare, questa concezione ha un enorme merito: quella di cercare di ridurre 
l’induzione alla  deduzione, negando la dicotomia  tra due  tipi di ragionamento 
diversi.   Si   parte   dall’osservazione   che   spesso   i   ragionamenti   deduttivi   sono 
espressi in modo incompleto, di solito per il fatto di non esplicitare alcune delle 
premesse soppresse, come quando si dice,.p.es. “Bilbo è un gatto, quindi è un 
felino”, che sottace la premessa “tutti i gatti sono felini”. Argomenti incompleti 
di questo genere sono chiamati entimemi da Aristotele. Un argomento induttivo 
come “tutti i corvi osservati sono neri , quindi   tutti i corvi sono neri” sono 
entimemi in quanto sottintendono qualche principio esprimente l’invarianza dei 
nessi accertati con l’osservazione. Di solito si parla di principio di Uniformità 
della Natura per designare l’idea per cui un nesso associativo o causale accertato 
in una zona limitata dello spazio­tempo vale in tutte le zone dello spazio­tempo. 
è     indubbio   che   questo   principio   è   applicato   consciamente   o   inconsciamente 
dagli scienziati nella ricerca scientifica 
     Come Hume aveva visto acutamente, il problema è sapere da dove proviene la 
nostra fiducia nell’ Uniformità della Natura. Se tale principio è stabilito 
induttivamente cadiamo in un circolo vizioso, d’altro canto non può essere 
stabilito deduttivamente. Ma una via d’uscita a cui spesso si ricorre è la categoria 
del sintetico a priori kantiano: si tratterebbe di un principio che, come il 
principio di causalità, riguarda il mondo ma è qualcosa che rende l’esperienza 
possibile e quindi a priori rispetto ad essa.
    Gli empiristi tuttavia rifiutano il sintetico a priori, che dal loro punto di vista è 
una contraddizione in termini. Carnap ha proposto una diversa riduzione 
dell’induzione alla deduzione  creando una logica induttiva come ramo della 
logica deduttiva (ponendosi quindi nel solco del programma logicista).  I 
ragionamenti induttivi sono ragionamenti incompleti perché manca un’ 
informazione non nelle premesse ma nella conclusione.  Se si specifica  che il 
grado di probabilità dell’asserto che il prossimo corvo è nero è, p.es. 90%, allora 
il ragionamento che porta da “tutti i corvi osservati sono neri” a “il prossimo 
corvo è nero con probabilità del 90%” è deduttivamente valido. Si tratta 
naturalmente di  calcolare correttamente tale grado di probabilità. Nel 1951 
Carnap proponeva, ne “Il continuo dei metodi induttivi” non uno ma infiniti 
metodi di calcolo ottenuti dando valori numerici diversi a due parametri che 
misurano il peso dato alle convinzioni a priori e a posteriori, che Carnap chiama 
fattore logico (λ dipendente dal numero dei predicati del linguaggio) e fattore 
empirico (ε, dipendente dalla frequenza relativa m/n). Purtroppo Carnap non dice 
come si deve scegliere λ o ε, introducendo un elemento di arbitrarietà che  apre 
la strada al soggettivismo. Inoltre, per citare un apparente difetto tecnico del suo 
lavoro,  accade che  la  probabilità che la legge infinitaria “tutti i corvi sono neri” 
riceve da “tutti i corvi osservati sono neri” è espresso da una frazione con un 
numeratore finito e un denominatore infinito, che come è noto, ha valore 0. C’è 
qualcosa di controintuitivo nell’assegnare valore di probabilità zero alle leggi di 
natura, anche se questo si potrebbe difendere dicendo che hanno valore 
informativo massimo e che sono improbabili e sorprendenti (come peraltro ha 
sottolineato Popper). Carnap difende il suo schema asserendo che ciò che 
importa è stabilire il grado di probabilità (conferma) non di “tutti i corvi sono 
neri” ma della previsione “il prossimo corvo sarà nero” (inferenza eduttiva). Il 
problema comunque è stato risolto da Hintikka inserendo nel continuo un terzo 
parametro esprimente il numero di individui dell’universo, che comunque porta a 
valori che tendono verso zero per universi molto grandi.
 b.Giustificazione pragmatica dell’induzione. Reichenbach,  considerato il più 
grande   empirista   del   XX   secolo,   ha   aggirato   il   problema   di   Hume 
evidenziando il fatto che “giustificare” significa valutare positivamente i mezzi 
rispetto   ai   fini.   Prendiamo   la   regola   induttiva   più   semplice   (regola   diretta), 
quella   che   trascura   il   valore   il   fattore   logico   e   asserisce,   sulla   base   della 
frequenza osservata di     m/n  A che sono B nel campione, che il limite a cui 
tende tale percentuale al crescere di n è sempre m/n.  Per Reichenbach questa 
regola è la migliore (a prescindere dal fatto, dimostrato poi da Salmon, che è 
l’unica   tra   le   regole   più   importanti   in   grado   di   evitare   contraddizioni   da 
premesse consistenti) per il fatto che non abbiamo nulla da perdere a seguirla. 
Se la natura è uniforme, vuol dire che esiste un limite a cui tende la frequenza. 
Se tale limite esiste, la regola diretta è in grado di calcolarlo meglio di qualsiasi 
altra regola. Ma se il limite non esiste, e cioè se la natura non è uniforme, non 
ci sono regole in grado di calcolarlo.  Se un cieco segue una strada nel bosco, la 
cosa più razionale da fare è continuare sul sentiero seguito con successo, anche 
se per ipotesi dovesse esserci un  baratro.
c.  Giustificazione   induttiva   dell’induzione.   Una   piccola   minoranza   di   filosofi 
(Braithwaite, Black) ha difeso il carattere autoapplicativo dell’induzione. Sia R 
la regola:“la maggior parte degli A esaminati sono B”  “ Il prossimo A è B”. 
Secondo   questi   filosofi   “R   per   lo   più     ha   funzionato    R   funzionerà   nel 
prossimo caso” contiene una circolarità solo apparente perché non presuppone la 
validità di R. La cosa però è dubbia perché “R ha per lo più funzionato” sembra 
indicare per l’appunto che R è una regola valida.

§4. La nozione di probabilità e il calcolo delle probabilità. 
Il     ragionamento   induttivo   nella   sua   forma   più   generale   ha   la   forma 
dell’induzione proporzionale, cioè di un ragionamento la cui premessa è una 
frequenza osservata “m/n A sono B” . Ora dire che il  51% dei bambini sono 
maschi alla nascita  significa, secondo l’uso comune, dire che  la probabilità di 
avere   una   nascita     di   maschi   è   del   51%.   Si   tratta   dunque   di   un   asserto 
probabilistico.   Inoltre,   le   conclusioni     di   qualsiasi   ragionamento   ampliativo 
hanno   un  certo   grado   di  probabilità   rispetto alle premesse,  quindi il nesso 
stesso tra le premesse e la conclusione ha natura probabilistica. Ma cosa sono le 
probabilità e come si calcolano? Secondo una scuola di pensiero che ha avuto 
una certa fortuna il metodo assiomatico è sufficiente a dare una definizione 
implicita dei concetti assiomatizzati : secondo Hilbert per esempio il concetto 
di   punto,   linea,   retta   è   sufficientemente   determinato   dagli   assiomi   che   li 
contengono,   purchè   siano   coerenti:   Lo   stesso   dovrebbe   valere   per   le 
probabilità,   per   cui   a   partire   dal   1933   è   disponibile   un’assiomatizzazione 
rigorosa   dovuta   al     russo   A.   Kolmogorov.   Secondo   K.   la   probabilità   è 
semplicemente   la   misura   della   dimensione   di   un   evento.   Un   evento   è   un 
insieme di esiti di qualche esperimento: per esempio “uscita del 2 alla roulette 
2”oppure   “uscita   di   un   numero   pari   alla   roulette”.     Un   evento   certo   avrà 
probabilità 100%, uno impossibile 0 e uno incerto un  valore variabile tra 0 e 
100%.. Essendo una   misura come il peso o la statura, la probabilità   avrà la 
caratteristica di essere additiva:
Pr (A ∪ B) = Pr(A) + Pr(B) – Pr(A ∩  B). (Principio delle  probabilità totali).
    Per  la definizioni di evento, esso viene inteso come il risultato di un esito di 
un esperimento,  p.es. il lancio di due dadi simultaneamente o  lo sparo di un 
colpo di mortaio. Gli eventi costituiscono un’algebra di insiemi, cioè il 
complemento e l’intersezione di insiemi è ancora un  insieme.
    Il concetto  non banale è quello di probabilità condizionata o subordinata
 (PC) Pr(B|A) =  Pr (A      ∩
     B)   
   Pr(A)≠0
                                     Pr(A)               
    Questa nozione è importantissima  perchè  ci consente di esprimere 
l’indipendenza tra due eventi in questo modo: A e B sono indipendenti quando 
Pr(B/A) = Pr B (viceversa , sono dipendenti quando in luogo della identità 
abbiamo la disuguaglianza). 
    Grazie alla nozione di indipendenza riusciamo a stabilire, per una elementare 
applicazione di PC, la probabilità di una congiunzione di eventi indipendenti:
Se   Pr(B|A)=   PrB,   Pr(A  ∩  B)   =   Pr   A  x  Pr(B).    (principio   delle   probabilità 
composte).

§5. La filosofia della probabilità
Il     problema   sul   tappeto  è   sapere   se   è  sufficiente   possedere   assiomi   per  la 
probabilità   per     rispondere   alla   domanda   “che   cos’   è   la   probabilità?”. 
Ammesso   che   la   risposta   sia   positiva,   il   calcolo   delle   probabilità   è   un 
meccanismo   per calcolare probabilità a partire da altre probabilità, ma non 
consente di dare criteri per  assegnare le probabilità che funzionano come input 
del   calcolo   (probabilità   iniziali).   Il   problema   principale   della   filosofia   della 
probabilità è per l’appunto questo. 
      Uno dei padri fondatori del calcolo delle probabilità, Laplace, ha formulato 
una definizione di probabilità che ha  dato una risposta al problema  considerata 
soddisfacente per molto tempo.  La probabilità è il rapporto tra i  casi favorevoli 
all’evento e i casi possibili, purchè egualmente possibili. 
   Questa definizione è facilmente applicabile al tavolo da gioco, dove il calcolo 
delle probabilità è sostanzialmente nato nel ‘600 per impulso soprattutto di nobili 
sfaccendati come il Principe de Merèe. Nei giochi d’azzardo ci troviamo  di 
fronte a problemi quali: se lanciamo  un dado, qual è la probabilità che esca un 
numero pari?  I casi possibili sono sei , i casi favorevoli 3, quindi la risposta è ½. 
Ma la risposta si può dare solo se si sa che i casi sono equipossibili , e qui 
cominciano ad apparire le difficoltà: perché equipossibile sembra uguale ad 
equiprobabile, quindi devo già applicare la nozione di probabilità per stabilire la 
equiprobabilità.
 a.  Laplace applica allora il principio di indifferenza: due casi sono equipossibili 
quando non abbiamo motivo di aspettarci una piuttosto dell’altra. Questa 
clausola funziona   molto spesso senza grossi problemi; ma  è chiaro che 
introduce una relativizzazione alle conoscenze dei soggetti , che può essere 
variabile nel tempo. Keynes nel Treatise on Probability (1921)  ha dedicato 
molte pagine al principio di indifferenza, formulando una sua correzione che 
consiste essenzialmente nel chiedere che le alternative non siano  decomponibili 
in sottoalternative.
    Keynes, Carnap, Jeffreys ed altri negli anni Trenta in realtà si proponevano di 
salvare il nocciolo della concezione classica cercando di  rendere applicabile non 
solo al caso delle alternative indifferenti ma a tutti i casi. La probabilità per 
questi filosofi logicisti  è un rapporto logico tra una evidenza e una ipotesi. 
Carnap ne parla come grado di conferma, e quindi fa coincidere il grado di 
conferma, la logica induttiva e il calcolo delle probabilità. La forma corretta di 
un enunciato probabilistico  non è Pr(A)=r ma Pr(h|e)=r.Se vere, questi asserti 
sono veri logicamente, e se falsi, logicamente falsi. 
   Per esempio la probabilità che il prossimo corvo è nero dato che sono stati 
osservati 4 corvi neri e un corvo albino è un certo valore determinato ( sotto certe 
premesse 4/5). Per stabilire questi valori Carnap introduce diversi gruppi di 
assiomi oltre a quelli strettamente matematici (assiomi di regolarità, di 
invarianza, di rilevanza di significato). Nel continuo dei metodi induttivi, come 
già accennato, vengono introdotti due parametri (uno logico e uno empirico)  che 
rendono più complesso e soprattutto non univoco, il ristulato di questi calcoli.

b. Mentre Laplace sviluppava la sua concezione aprioristica della probabilità, 
faceva rapidi progressi  una disciplina con un vasto spettro di applicazioni, la 
statistica.   Nata  per   gli  interessi   delle compagnie di assicurazioni,  la statistica 
diventava uno strumento indispensabile nell’epidemiologia e quindi nella fisica,
soprattutto per lo studio dei gas (Boltzmann). Le affermazioni probabilistiche gli 
statistici sono pure di forma Pr(B|A) = r, ma si leggono :la percentuale di A che 
sono B è m/n (per se. La percentuale di cigni che sono bianchi è 90%). Questi 
enunciati sono non analitici ma sintetici, non a priori ma a posteriori, perché 
dipendono da informazioni derivate dall’esperienza circa le frequenze osservate 
(frequentismo).
        Il   primo   frequentista   da   citare   è   stato   John   Venn   (1886),   ma   è   stato 
Reichenbach   a   dare   al   frequentismo   la   massima   dignità   filosofica   facendone 
l’unico punto di vista compatibile con l’empirismo (per il quale, come è noto, 
qualunque   conoscenza   non     logica   deriva   dall’esperienza).   Si   noti   che   il 
frequentismo risolve immediatamente la difficoltà del principio di indifferenza. 
Per un frequentista gli enunciati probabilistici riguardano il mondo ed esprimono 
conoscenza sintetica del mondo.   Per un empirista non ci sono conoscenza a 
priori, a parte quelle logico­matematiche, quindi il principio di indifferenza non è 
lecito perchè è basato su una forma di conoscenza a priori. 
    Purtroppo solo in pochi  casi  è sufficiente identificare la probabilità con la 
percentuale di casi riscontrata in un insieme finito. Per conoscere la probabilità,
per   esempio   che   un   abitante   di   un   certo   appartamento   di   un   grattacielo   sia 
biondo, è sufficiente esaminare tutti gli abitanti del grattacielo e vedere qual è la 
percentuale di persone bionde tra di essi. 
Se il numero di abitanti è troppo grande per consentire l'esame (riguarda, per 
esempio, gli abitanti di New York) possiamo surrogare l'esame suddetto con il 
metodo del campionamento, cioè esaminando solo un campione rappresentativo 
dell ' universo selezionato in modo adeguato. 
Ma che dire se l'universo  le cui proprietà ci interessano è infinito? Supponiamo 
di colorare di rosso la faccia di un dado. Come possiamo sapere qual è     la 
percentuale   di   uscite   di   questa   faccia   rossa   in   infiniti   lanci   –   che   per   un 
frequentista equivale a dire la probabilità che esca questa faccia rossa? 
       Per fare un’assegnazione di probabilità di questo tipo bisogna  prendere in 
considerazione una sequenza (o un campione ordinato) di eventi le cui 
dimensioni sono illimitatamente grandi.       Secondo la  formulazione di 
Reichenbach la probabilità  di A entro una classe B (PrA|B) è il limite a cui 
tendono con il crescere di n le frequenze osservate di A in un campione di n 
elementi tratti da B. Se i limiti a cui tendono le frequenze di tutte le facce
diremo che tutte le facce sono equiprobabili.
      è  chiaro che c´ é una difficoltà  del concetto di limite usato dai frequentisti, 
che non e´sicuramente uguale a quello usato in matematica. Il limite non 
puòessere calcolato con qualche algoritmo,  anche perchè  non c´ è  nessuna 
garanzia logica che tale limite esista. Asserire che il limite esiste significa 
asserire  il postulato dell’ uniformitàdella natura che, per quanto si è  già detto,  è 
controverso. In termini probabilistici l’asserto che la frequenza tende alla 
probabilità teorica e´detto postulato empirico del caso, e non è  affatto un 
teorema del calcolo delle probabilità. Sfortunatamente a volte viene confuso con 
la legge dei grandi numeri, cioè  con il c.d. teorema di Bernoulli
Lim  (n  ∞) Pr [ | s/n –p| < ε ] =1

        Se il campione osservato deve essere rappresentativo della sequenza, come 
abbiamo già detto, deve inoltre avere delle proprietà di perfezione, prima di tutto 
quella   di   essere     “casualità”   ,   “irregolare”   o   “random”.   Certo   un   dispositivo 
come il dado o la roulette tale casualità dovrebbe essere garantita dalla natura del 
dispositivo stesso. Ma questo non vale per classi di  fatti che non dipendono dalla 
costruzioni   di   meccanismi   aleatori.   Le   proprietà   che   dovrebbero   possedere 
questi insiemi ­campione sono state oggetto di varie speculazioni matematiche. 
Si   è    cercato,   a   partire   da   von   Mises,   di   definire  le   proprietà   di   un   insieme 
essenzialmente irregolare. Sembra in effetti che ci sia qualcosa di paradossale nel 
trovare   un   insieme   di     regole   per   generare   una   sequenza   irregolare.   Si   sono 
trovati   in   compenso   buoni   risultati   empirici   per   la   generazione   di   sequenze 
“pseudocasuali”   (si   noti   che   la   sequenza   dei   decimali   di  π   non   puòdirsi 
irregolare in senso tecnico, anche se di fatto nessuno ha trovato una regolarità nel 
modo in cui si succedono questi decimali: la si può comunque usare “di fatto” 
come matrice per sequenze numeriche casuali).

     Il frequentismo è diventato il   punto di vista dominante presso gli statistici, 
dato che la nozione di probabilità che essi usano è  di fatto quella frequentista. 
Le difficoltà comunque non mancano. Ci limitiamo a citare queste: 
a) la definizione statistica di probabilità non soddisfa gli assiomi di Kolmogorov 
per tutti  i valori.
 b) per i frequentisti la probabilità descrive una frequenza entro una classe di 
riferimento: quindi non ha senso assegnare un valore di probabilità a eventi 
singoli ma solo a tipi di evento, p.es.  “uscita del 2” . Non ha senso parlare di 
probabilità dell’ evento “uscita del 2 al  terzo lancio”.  Una variante del 
frequentismo detta “propensionismo” ha cercato di dare una risposta a questo 
problema tenendo conto delle  condizioni in cui si verificano i singoli eventi. Se 
per esempio al terzo lancio il dado è  zavorrato , ha un senso chiedersi qual è  la 
probabiilità dell’uscita di 2 al terzo lancio.  In questa visione la probabilità 
diventa una propensione di un dato  dispositivo a produrre certi risultati in 
condizioni date. 
c) La corrente di filosofia della probabilità che  ha avuto maggiori  e crescenti 
consensi   negli   ultimi   anni   è     quella   soggettivista,   dovuta     a   F.P.   Ramsey   e 
soprattutto al matematico italiano Bruno de Finetti. I soggettivisti ritengono che 
ci sono tante probabilità quanti sono i soggetti, dato che la probabilità è   solo 
misura del grado di credenza soggettiva. Le probabilità iniziali vengono accettate 
osservando il comportamento dei soggetti nello scommettere.  Supponiamo che il 
soggetto,   trattando   con   un   allibratore,   accetti   di   scommettere   10   euro   sulla 
vittoria di un cavallo per ricevere in cambio 100 euro. Vuol dire che considera 
rischiosa questa scommessa: il c.d. “quoziente di scommessa”  10/100 misura il 
grado di fiducia nel verficarsi dell’evento, e precisamente la probabilità del 10% 
ad esso assegnato.
     Tutte le scommesse sono legittime salvo quelle che portano a perdita certa: 
per esempio quando si scommettono 10 euro su Testa e 10 euro su Croce dopo 
aver fissato un quoziente di scommessa di 10/15 (circa 66%). In tal caso si 
guadagnano  in ogni caso 15 euro, ma la scommessa ne costa 20. Scommesse del 
genere vengono dette incoerenti.  Il requisito della coerenza è  pertanto l’unico 
che va rispettato,  in quanto requisito di razionalità. Un  sistema di scommesse 
incoerente (Dutch Book) può essere anche estremamente complesso, e sta allo 
scommettitore manifestare la sua razionalità rifiutandolo.  Si può dimostrare che 
questa concezione della probabilità  soddisfa gli assiomi di Kolmogorov.   I 
vantaggi del soggettivismo sono innegabili.  Si puòscommettere tanto su eventi 
singoli che su eventi ripetuti, si puòtenere in conto le frequenze osservate ma 
anche non tenerne alcun conto. Si puòassegnare una probabilità anche a un 
evento completamente nuovo, sulla base di convizioni che non c’ é’ bisogno di 
giustificare. Il giocatore di borsa opera spesso in questo modo , anche perchè 
non  dispose di statistiche sui titoli ma si fida di informazioni riservate che sta a 
lui valutare,  oppure semplicemente al suo fiuto. La fortuna del soggettivismo 
presso glie economisti è  facile da spiegare, anche perchè   i valori di probabilità 
vengono ricondotti a rapporti tra somme di denaro.
    Questa semplicità naturalmente ha un prezzo. Le osservazioni principali da 
fare sono queste
1)Il   quoziente   di   scommessa,   poniamo   del   10/100,   vale   tanto   quando   si 
scommettono 10 euro per averne 100 e quando si scommettono 1000 euro per 
averne   100.000.   A   parità   di   reddito,   la   seconda   scommessa   è     molto   piu’ 
rischiosa.   Per   ovviare   a   questa   difficoltà   si   potrebbe   ricorrere   (Ramsey)   alla 
nozione di   preferenza tra beni, che peròsembra presupponga una conoscenza 
delle probabilità.
2)   Ci   sono   leggi   probabilistiche   che  sono   accettate  dalla   scienza   perchè     hanno 
valore intersoggettivo.
3)I   soggettivisti   non   sono   in   grado   di   dire   che   signiifca   “apprendere   dall’ 
esperienza”,   e   cioè     fare   valutazioni   probabilistiche   razionali   che   siano 
proporzionali   all’esperienza   accumulata.   Secondo     wittgensteiniani   come 
Strawson   essere   ragionevoli   significa   per   definizione   (cioè     per   gli   usi   del 
linguaggio   ordinario)   avere   delle   credenze   commisurate   all’evidenza,   ossia 
ragionare   induttivamente.,   mentre   la     razionalità   intesa   come   coerenza   nello 
scommettere non fa parte del  repertorio concettuale ordinario, anche perchè  si 
puòvivere benissimo senza fare l’esperienza dello   scommettere, che tra l’altro 
presuppone   l’esistenza   di   denaro   circolante,   sconosciuta   in   alcune   culture 
tropicali.

§6. Il teorema di Bayes e le sue applicazioni
    Negli ultimi anni l’attenzione degli epistemologi si è  concentrata su uno 
strumento matematico che i soggettivisti hanno avuto il merito di porre al centro 
dell’attenzione in quanto dal loro punto di vista esprime l’unico senso preciso in 
cui si puòparlare di “inferenza dal noto all’ígnoto”. Dimostrato nel 700 da un 
matematico inglese, il torema di Bayes esprime la  probabilità di A dato B in 
termini della probabiilità di B dato A ( per questo è   chiamato anche teorema 
della probabilità inversa.)
Pr A| B  = Pr(A & B) =`Pr A     x
   Pr(B|A)
   
                    Pr(B)                 Pr(B)

Se   chiamiamo   Pr(B|A)  verosimiglianza   (likelyhood)  ,   la   verosimiglianza     ha 


normalmente   valori   diversi   dalla   probabilità   .  Per   esempio   la  probabilità  che 
tutti   i   corvi   siano   neri   (A)   dato   che   100   corvi   sono   neri     è   diversa   dalla 
probabilità   che   100   corvi   sono   neri   dato   che   tutti   i   corvi   sono   neri,   che   è 
esattamente   del   100%.     In   tal   caso   anche   un   soggettivista   può   calcolare   la 
probabilità   della   generalizzazione   induttiva   una   volta   che   conosca   la 
verosimiglianza   (che   qui   è     ovviamente   1),     e   faccia   un’assegnazione 
(eventualmente soggettiva) ad A e a B. 
       Il teorema di   Bayes, prediletto daí soggettivisti, è   stato valorizzato come 
strumento inferenziale   dai filosofi detti bayesiani, che non     necessariamente 
sono soggettivisti (si parla di bayesianismo oggettivo).   Esso pare fortemente 
adeguato soprattuto nel campo della cosiddetta abduzione, che   nel caso piu’ 
ovvio è l’inferenza dagli effetti alle cause.  Se ci sono due ipotesi causali  h1 e 
h2, il teorema di Bayes consente di calcolare quale delle due cause è   la piu’ 
probabile (confrontando cioè  Pr h1|e  e Pr h2|e) una volta che si sappia valutare 
qual è  Pr e|h1 e Pre|h2   e si sia assegnato un valore a Pr(h1),Pr(h2) e Pr(e).

[ Bibliografia reperibile in italiano
G.Boniolo e P.Vidali, Filosofia della scienza, cap.4 e App2 , Ed. Bruno 
Mondadori, Milano,1999
J.Hintikka: Induzione, accettazione , informazione, (a cura di  
P. Parlavecchia e M.Mondadori) Il  Mulino,Bologna, 1974.
L.J.Cohen :  Introduzione alla filosofia dell'Induzione e della probabilità, 
Giuffrè, Milano 1998
M.C.Galavotti: Probabilità, La Nuova Italia, Firenze, 2000
C. Pizzi: Teorie della probabilità e teorie della causa, CLUEB, Bologna, 
1983
P.Suppes: La logica del probabile: un approccio bayesiano alla probabilità, 
CLUEB, Bologna, 1984
B.Skyrms, Introduzione alla logica induttiva, Il Mulino, Bologna, 1966]
 

V. LA FILOSOFIA  DELLA CAUSALITA' 

1.Ci sono due principi che nella filosofia tradizionale hanno avuto il ruolo di 
caposaldi del pensiero scientifico: il cosiddetto “principio di causalità”, cioè 
l’assunto che ogni evento ha una causa ­ e la sua variante più debole, il 
“principio di ragion sufficiente”, asserente che ogni cosa ha una ragion d’essere 
o fondamento , dove il fondamento è qualcosa che spiega l’effetto ma a, 
differenza della causa, non è necessitante per questo.
   In un celebre articolo scritto nel 1913 (ora in “Logica e Misticismo”), Bertrand 
Russell  esprimeva l’opinione che  il principio di causalità è “il relitto di  un’era 
tramontata, il quale viene lasciato sopravvivere, come la monarchia, 
nell’opinione errata che non produca danni”.
    Con questa battuta Russell esprimeva un punto di vista che era corrente in 
ambienti scientifici influenzati dal positivismo e anticipava le posizioni di quello 
che sarebbe poi stato chiamato neopositivismo. Russell infatti non solo asseriva 
la fine del principio di causalità, ma  profetizzava anche che qualunque scienza 
avanzata il linguaggio causale era destinato a sparire, e che le cosiddette leggi 
causali sarebbero state formulate come equazioni differenziali in cui si 
esprimeva la variazione concomitante di determinate grandezze  da determinate 
altre. Le variabili dipendenti  avrebbero preso il posto degli effetti e le variabili 
indipendenti avrebbero preso il posto delle cause.
    La concezione di Russell  presupponeva la fiducia nel primato della fisica 
(dove era per l’appunto in corso il processo di purificazione linguistica sopra 
descritto) e in realtà sottintendeva una completa fiducia in una futura confluenza 
di tutte le scienze nella fisica. Come è noto, dopo la prima guerra mondiale il 
neopositivismo avrebbe istituzionalizzato questo ruolo dominante nella fisica 
con il c.d. fisicalismo e, per quanto riguarda la causalità, avrebbe assunto un 
atteggiamento analogamente riduttivo. Wittgenstein nel Tractatus esprimeva in 
modo tagliente questi umori con l’aforisma “la credenza nel nesso causale è 
superstizione”.  Quanto all’idea secondo cui ogni evento ha una causa, 
Wittgenstein osservava (6.16) che “se ci fosse un principio di causalità potrebbe 
suonare ‘Ci sono leggi di naturà”. Che cosa sono le leggi di natura? Wittgenstein 
e i suoi allievi più diretti come Schlick le intendono come regole che ci  mettono 
in grado di prevedere i fenomeni o calcolare i valori delle loro proprietà 
misurabili. L’esistenza di leggi di natura dunque non è altro che l’esistenza di 
regole di inferenza o di calcolo di questo tipo.
    Tuttavia l’eclissi della causalità non aveva ancora completato la sua parabola 
se il più fedele portavoce di Wittgenstein, F. Waissmann, poteva scrivere nel 
secondo dopoguerra un lungo saggio intitolato “Tramonto e fine della causalità”. 
Secondo Waismann questo crollo definitivo della causalità sarebbe stato prodotto 
dal principio di indeterminazione di Heisenberg (1927) . Come è noto, in questo 
si afferma che è impossibile misurare simultaneamente due grandezze coniugate 
(p.es. la posizione e la velocità di un elettrone), e quindi anche di fare predizioni 
esatte circa i fenomeni del  mondo subatomico. Possiamo parlare di cause senza 
effetti e di effetti senza cause. Secondo un punto di vista molto ripetuto, questa 
limitazione sarebbe dovuta all’interferenza dell’osservatore con l’oggetto 
microscopico osservato (si noti che per “vedere” qualsiasi cosa questa va colpita 
con un fascio di fotoni). Ma è sempre più chiaro che  la limitazione è dovuta alla 
natura stessa di particelle come gli elettroni, che si comportano tanto come onde 
che come corpuscoli, dando origine a manifestazioni che sono incomprensibili
se analizzate con il linguaggio e con i metodi usati per il mondo macroscopico.
    Con tutto ciò si arrivava alla dissoluzione del determinismo causale di Laplace 
Come è noto, Laplace  postulava la possibilità di un demone onnisciente in grado 
di calcolare in linea di principio tutte le qualità degli eventi passati e futuri 
conoscendo in modo completo lo stato di cose presente. Il caso è semplicemente, 
in questa prospettiva, l’ignoranza delle cause.  Dopo Heisenberg invece il caso 
diventa  un ingrediente ineliminabile della realtà stessa. In tutte le scienze 
emergenti, dalla sociologia alla biologia molecolare, leggi probabilistiche e 
statistiche sostituivano le leggi deterministiche, che si potevano in ogni caso 
presentare come casi limite delle prime.
     A quasi un secolo di distanza da quella che pareva una crisi irreversibile 
siamo in grado di fare un quadro della situazione  piuttosto diverso da quello 
pronosticato da Russell e condiviso dai neopositivisti. Da un lato l’ attuazione 
del programma fiscalista sembra oggi addirittura più remota  di quanto fosse ai 
tempi di Russell, e questo soprattutto per l’enorme rilievo che hanno assunto le 
scienze umano­sociali. Dall’altro è un fatto che gli scienziati, fisici compresi, 
non hanno certo abbandonato il linguaggio causale nell’ attività di ricerca e 
dell’esposizione ufficiale dei loro risultati.  I medici continuano a parlare di 
eziologia delle malattie, e a fare della ricerca della cause di queste il loro 
obiettivo fondamentale (una buona diagnosi è per tutti una questione di vita o di 
morte) e anche i fisici usano un gergo causale, anche se in modo più implicito 
che esplicito. Si pensi infatti che la maggior parte dei verbi transitivi attivi 
(“urtare”,”espellere”, “distruggere” ecc.) sono essenzialmente verbi di 
causazione in quanto descrivono un determinato rapporto tra evento causante ed 
evento causato. Anche  nell’ipotesi che si possa eliminare il gergo causale dalla 
formulazione delle leggi, sembra che questo sia impossibile nella descrizione 
della cosiddetta realtà fenomenica.
    Quanto precede forse basta da solo a spiegare il moltiplicarsi impressionante di 
saggi filosofici sulla causalità a partire dal 1960 circa, quando viene pubblicato 
“Causation in Law” di Hart & Honorè, due filosofi del diritto consapevoli 
dell’importanza che hanno le considerazioni causali nell’accertamento delle 
responsabilità penali. Certo questo trend è in parte motivato dall’esaurirsi del 
positivismo logico alla fine degli anni 50. Ma sarebbe un errore pensare che 
questa fioritura sia legata al postpositivismo, cioè al filone di pensiero della linea 
Hanson­Kuhn­Feyerabend.  In realtà questa corrente filosofica è ben poco 
interessata all’analisi concettuale e si è limitata a mettere l’accento sul ruolo che 
hanno le teorie scientifiche nel rispondere alla domanda “qual è la causa del 
fenomeno x”?    Di che cosa si tratti si può vedere facilmente da un esempio. 
Supponiamo che si verifichi un incidente stradale conclusosi con la morte di un 
conducente che in stato di ubriachezza passava con il rosso. Supponiamo di 
chiedere a un vigile urbano, a un medico, a un sociologo qual è la causa del 
decesso. Avremo verosimilmente delle risposte diverse. L’uno dirà che l’evento 
si è prodotto perché l’autista è passato con il rosso, l’altro  indicherà la causa in 
un’emorragia inarrestabile, il terzo nel fatto che il guidatore era un alcolista. I tre 
soggetti sono influenzati da paradigmi diversi e individuano cause diverse. 
Individuare una causa significherebbe dunque usare un certo insieme di 
presupposti di sfondo (una teoria, un insieme di pregiudizi) per distinguere ciò 
che è rilevante da ciò che non è rilevante. Tutto ciò è indubbiamente vero sul 
piano della psicologia della ricerca scientifica, ma elude uno dei problemi 
centrali della filosofia della scienza, e cioè che esistono catene causali 
“oggettive”, cioè che i vari soggetti possono riconoscere come tali 
indipendentemente dal peso che ciascuno può voler assegnare ai singoli membri 
della catena? Questo problema è solo uno dei molti che sono stati recentemente 
oggetto di dibattito nella filosofia della causalità, dove con questo termine 
intendo rifermi a una nuova area di ricerca su temi  comuni spesso scollegati, 
che attualmente vengono perseguite con strumenti diversi (logici, linguistici, 
algebrici, statistici) da studiosi di diversa estrazione che parlano linguaggi 
diversi.
   Vediamo insieme alcuni temi importanti da  esaminare con la massima 
attenzione.

2.   Gli   studi   sulla   genesi   del   concetto  di  causa  non  sono,   a  rigore,  filosofici. 
Tuttavia   ha   una   grande   importanza   per   la   ricerca   filosofica   sapere   come   si 
sviluppano nel bambino le nozioni causali ,e confrontare questo sviluppo con 
quello subito da queste nozioni nella storia della cultura. Il riferimento obbligato 
qui è naturalmente alle ricerche di Jean Piaget e della sua scuola ginevrina.
    Il bambino ha coscienza prima di tutto della propria capacità produttiva, 
generativa e manipolativa, e in base a questo passo ad attribuire analoghi poteri 
agli oggetti che riconosce  come esterni al proprio corpo. Il linguaggio ordinario 
è abbondantemente percorso da questa concezione produttivistica della causa. 
Noi diciamo infatti che il fuoco ha prodotto la scottatura, che il sedativo agisce 
sul sistema nervoso, che le scariche elettriche hanno generato un campo 
magnetico.
    Tutto questo è in accordo anche con l’animismo, cioè con la credenza comune 
ai popoli primitivi secondo cui tutti gli oggetti possiedono un’anima. Questa 
convinzione, o almeno i suoi residui, sono rintracciabili anche agli albori del 
pensiero occidentale,e precisamente nella dottrina aristotelica secondo cui 
esistono poteri occulti  nelle sostanze, come il potere dell’oppio di causare il 
sonno o il potere del diamante di tagliare il vetro. Ebbene, nell’ambito della 
filosofia della causalità anche questa posizione filosofica ha ripreso vigore. Due 
filosofi inglesi influenzati da Wittgenstein, Harrè e Madden,  hanno 
recentemente  pubblicato un volume in cui si rilancia l’idea che l’ontologia 
adeguata alla scienza moderna sia quella che contempla una realtà formata da 
individui dotati di poteri.
    è  difficile credere che una filosofia di questo genere (si direbbe una filosofia 
Lockeana  aggiornata)  sia presentabile  agli albori del terzo millennio. 
Supponiamo  di dire che il digiuno di un certo deputato radicale ha causato il 
dimagrimento dello stesso. Qual è l’oggetto dotato di poteri che causa tale 
fenomeno? Non certo il cibo , a meno che non sia più una battuta dire  “lo 
zucchero rende il caffè amaro, se non ce lo metti” .  Alternativamente, possiamo 
dire che il digiuno è una sostanza dotata di poteri? Ma questo significa dilatare 
tropo il ventaglio di ciò che gli aristotelici intendono per sostanza.  Non 
dimentichiamo che Don Ferrante di fronte alla peste di Milano osservava, 
seguendo Aristotele, che la peste non era né sostanza né accidente, e quindi che 
non poteva esistere.  Un sostenitore di una teoria simile a quella di Harrè e 
Madden, Mario Bunge, ha liquidato il problema sostenendo che enunciati del 
genere necessitano di una complessa parafrasi, ma non dice quale.
     Una nozione di causa simile a questa, ma più accettabile per un fisico, sta nel 
ridurre  la relazione di causa­effetto a quella di trasmissione di una grandezza 
(forza, momento, accelerazione…) da un corpo all’altro. Ma il tipo di 
controesempio da invocare è sempre lo stesso.  Premendo l’interruttore  la stanza 
da luminosa diventa buia, ma questo si ottiene non con la trasmissione del flusso 
di elettricità ma con l’interruzione dello stesso.
    Anche le ricerche sulla genesi del concetto di causa non hanno ottenuto un 
risultato univoco.  Un conto infatti è la genesi  nella mente del bambino, altra è 
la genesi nella storia della cultura umana. Già nel 1940 il grande giurista 
austriaco Hans Kelsen evidenziava che l’origine culturale della nozioni causali è 
di tipo etico­ giuridico. La parola “causa” (cfr. l’espressione “far causa a uno”) 
indica “il responsabile”. I primitivi vedono nella natura una lotta tra gli elementi 
della natura in cui  viene perturbato l’equilibrio naturale. Il principio di causalità 
non è altro che una proiezione sulla natura del principio del contrappasso (cioè 
che la pena deve essere una vendetta proporzionata alla colpa): allo stesso modo 
in cui la vendetta adeguata ripristina l’equilibrio sociale, l’effetto adeguato 
ripristina l’equilibrio naturale.
    Ora quest’idea della natura come sistema in equilibrio sotto spinte differenti è 
vicina all’immagine che gli economisti danno oggi dei sistemi economici. Essi 
sono rappresentabili come modelli (sistemi di equazioni) in cui alcune variabili 
(p.es. salari) sono da considerare non influenzate  da altre che dipendono dalle 
prime, e quindi ne sono l’effetto.  Grazie a particolari espedienti matematici 
(studiati p.es. da Blalock e Simon) si riesce inoltre a dare un senso preciso 
all’idea di feed­back, cioè alla retroazione delle variabili­effetto sulle variabili­
causa, che tende a riportare un sistema all’equilibrio. In tal modo la teoria dei 
sistemi rientra nel filone dei molti tentativi volti a purificare l’idea di causa dai 
suoi connotati antropomorfi e metafisici.
    Questi tentativi, che nel 900 sono stai sviluppati con tecniche sofisticate, 
hanno un precedente illustre nel pensiero di David Hume. Erroneamente si è 
voluto vedere in questo filosofo uno scettico distruttivo che mirava a negare un 
senso agli asserti causali. In realtà Hume, come ogni empirista, si rifiuta di 
attribuire realtà a ciò che non è osservabile, e tali non sono i poteri causali e il 
nesso causa­effetto.  La tesi di Hume è che quando asseriamo che c è causa di e 
stiamo semplicemente asserendo
1) che c ed e si sono realmente verificati

 che eventi simili a c sono spazialmente contigui e regolarmente seguiti da eventi 
simili ad e.
è  solo per associazione ingannevole di idee, secondo Hume, che riteniamo che ci 
sia un legame occulto tra la causa e l’effetto o un potere causale della sostanza 
(regularity view).
   All’analisi di Hume sono state opposte diverse obiezioni ma le due principali 
sono le seguenti:
I).  Ci sono casi in cui si può stabilire un nesso causale con una sola 
osservazione, e quindi senza passare attraverso l’osservazione di esempi ripetuti. 
Thomas Reid, un contemporaneo di Hume, osservava per esempio che l’effetto 
della propria volontà sulle proprie azioni si può stabilire in modo immediato 
senza passare attraverso osservazioni ripetute. Non essendo un fenomeno 
pubblicamente osservabile, questo a rigore non è qualcosa che interessi un 
empirista. Comunque si possono escogitare altri esempi analoghi: p.es. si inietta 
un nuovo farmaco a una cavia e questa immediatamente muore: In mancanza di 
altre ipotesi causali  secondo alcuni è lecito concludere che l’iniezione è stata 
causa della morte.
II). Ci  sono  successioni regolari che rispecchiano i requisiti di Hume e tuttavia 
non sono causali.
     Reid osservava che il giorno è regolarmente seguito dalla notte e viceversa, 
senza   che   nessuno   si   possa   dire   causa   dell’altro.   La   prima   dentizione   è 
regolarmente seguita dalla seconda, ma non si può dire causa di questa.  In molti 
processi deterministici linerari un certo tipo di  evento è seguito da un altro senza 
che si possa dire che ne è la causa.
    Controesempi di questo genere si potrebbero considerare non decisivi. A 
proposito di questi si potrebbe argomentare che in effetti non si parla di nesso 
causa­ effetto, ma che nemmeno lo si esclude (dopo tutto , il giorno rende 
possibile la notte e la prima dentizione rende possibile la seconda)  è  dunque un 
caso di vaghezza semantica, in cui c’è una certa arbitarietà nella scelta del 
linguaggio.
    Ma casi di successioni regolari non causali esistono e sono all’ordine del 
giorno. Kant, come si sa, aveva l’abitudine di compiere una passeggiata 
quotidianamente nella piazza di Konigsberg con un puntualità cronometrica. 
Quindi ogni giorno la sua presenza nella piazza era seguita da una certa 
posizione delle lancette dell’orologio (orologio tanto tedesco quanto il filosofo). 
Nessuno però potrebbe dire che la presenza di Kant era la causa della posizione 
delle lancette, nonostante fosse a questa contigua anche spazialmente.
   Perché è possibile produrre controesempi di questo genere? Una risposta 
potrebbe essere che si tratta di generalizzazioni accidentali, non di leggi di 
natura. Se Kant fosse mancato un giorno all’appuntamento o l’orologio si fosse 
fermato per un guasto questo avrebbe creato sorpresa ma nessuno avrebbe 
gridato al miracolo, come quando Giosuè fermò il sole durante la battaglia di 
Gerico.
   E'  sufficiente  allora chiedere che sussistano leggi di  successione regolare per 
parlare di  relazioni causali? Con ciò siamo tornati al riduzionismo di 
Wittgenstein, cioè all’idea che l’esistenza di nessi causali altro non sia che 
l’esistenza di leggi di natura.
   La riposta però è ancora negativa. Noi sappiamo che l’abbassarsi della lancetta 
del barometro è regolarmente seguita dal maltempo (così si dice): abbiamo 
quindi una regola che ci consente di inferire, dall’abbassamento del barometro, 
l’avvicinarsi del maltempo. Eppure siamo anche sicuri che l’abbassarsi del 
barometro non è causa del maltempo ma solo un indizio di questo.  Altrimenti 
detto, si tratta di una causa spuria, e il motivo per cui sembra una causa genuina 
è che esiste una causa genuina antecedente (l’abbassamento della pressione 
atmosferica) da cui dipende tanto la variazione barometrica quanto l’effetto vero 
e proprio . 
    è  difficile quindi accettare l’analisi regolarista senza almeno questa 
correzione: c1 è  causa di e se e segue  nomicamente da c1, a meno che non 
esista una terza causa antecedente c2 da cui dipende tanto c1 che e.

3.   Negli   anni   ‘30   i   neopositivisti   hanno   effettuato,   soprattutto   per   merito   di 
Hempel,   un   tentativo   ancora   più   radicale  di  eliminare la nozione  di  causa.  è 
sufficiente   al   proposito   ricordare   la   teoria   della   spiegazione   di   Hempel­
Oppenheim. Molto semplicemente, se  C   è un elemento dell’explanans ed E è 
l’explanandum, diremo che  C è causa di E (C , si direbbe è ragione sufficiente, 
una volta congiunta ad altre informazioni), per credere ad E. Parleremo di teoria 
“esplicazionista   della   causa”   in   quanto   le   cause   vengono   ridotte   a   fattori 
esplicativi.
    Rispetto alla teoria neohumeana, p.es. di Schlick, l’ esplicazionismo elimina il 
requisito della precedenza temporale delle cause. Supponiamo di chiedere: 
“perché quel passero costruisce il nido?” (explanandum) e che la risposta sia 
“perché disporrà in un momento successivo le uova nel nido”. Qui l’explanans è 
posteriore all’explanandum. Lo diremmo una causa? Aristotele diceva di sì e 
parlava al proposito di cause finali o posteriori all’effetto. Gli empiristi negano 
l’esistenza di questa causalità retroattiva e preferiscono dire in questo caso che il 
passero è stato programmato a mettere le uova nel nido, dove la programmazione 
genetica è una causa antecedente, non posteriore.
       Problema analogo   è quello delle cause simultanee. Anche qui gli empiristi 
sono scettici e di solito sottoscrivono il principio di azione ritardata, secondo cui 
ogni azione “prende tempo”, fosse anche l’azione delle onde più veloci, che sono 
quelle luminose. La velocità altissima della luce spiga alcuni apparenti esempi di 
causalità simultanea. Per esempio se premo il pulsante ho l’impressione che si 
accenda “simultaneamente” la lampadina, ma  in realtà ciò che accade perché il 
lasso di tempo intercorso è impercettibile.
       Per concludere, un neohumeano potrebbe definire una causa C1 come una 
delle condizioni iniziali C1…Cn che fanno parte dell’explanans  dell’effetto E 
(explanandum) che si verifica in un momento successivo. Si potrebbe anche dire 
che C1 è ceteris paribus sufficiente per E,  dove l’espressione “ ceteris paribus” 
indica   le   condizioni   di   contorno   preesistenti   compatibili   con   E.   Questo 
concezione è assai elegante, ma il controesempio del barometro ci fa riflettere 
sulla   sua   insufficienza.   L’abbassarsi   del   barometro     rende   prevedibile   la 
tempesta, ma non la spiega e tanto meno ne è causa. Sono stati fatti dei tentativi 
probabilistici   molto   sofisticati   per   distinguere   le   cause   genuine   dalle   cause 
spurie, che è un problema di vitale importanza soprattutto quando sono in gioco 
delle correlazioni  statistiche di eventi non facilmente ordinabili temporalmente . 
Per  esempio risulta una correlazione positiva tra le variabili c ( check up) e   m 
( mortalità) , anche se è difficile credere che i check up diminuiscano la speranza 
di vita. Tecniche molto raffinate per lo smascheramento delle cause spurie sono 
state introdotte   nell’ impiego dei modelli matematici come quelli di Blalock e 
Simon.
Ma sembra che non si sia dato risalto all’intuizione più semplice.    Si può 
osservare che l’abbassarsi del barometro è sì condizione ceteris paribus  
sufficiente per l’effetto ma non è una condizione cegteris paribus necessaria o, 
come si suol dire, una conditio sine qua non  per lo stesso. Se, per esempio, non 
ci fosse stato l’abbassamento del barometro per mancanza del barometro, ci 
sarebbe stata egualmente tempesta, come avveniva prima dell’invenzione dei 
barometri.
    Qualcuno può sostenere  che questo “esperimento mentale” è l’unico vero test 
per la genuinità delle correlazioni causali. Si ipotizza in altre parole che un certo 
evento C non si sia verificato e ci si chiede che cosa ne sarebbe dell’evento 
successivo E.
     Un asserto come “se non ci fosse stato c non  si sarebbe verificato e” è un 
periodo ipotetico della irrealtà, che i logici oggi chiamano condizionale 
controfattuale. Max Weber ha teorizzato l’essenzialità di questo metodo in un 
ben noto saggio sulla metodologia delle scienze storico­sociali.  Non solo 
riusciamo così ad eliminare le cause spurie, ma anche a dare un peso alle cause 
genuine. Che cosa ha causato la I guerra Mondiale? Se non fossero stati sparati i 
colpi di pistola di Sarajevo la guerra si sarebbe comunque verificata anche se in 
modi leggermente diversi, quindi quell’evento (casus belli) si può  qualificare
 come causa  accidentale.
   Purtroppo la distinzione tra condizione sufficiente e condizione necessaria non 
è mai stata chiara nella letteratura filosofica fino all’ultimo secolo, e la 
confusione è presente in molti autori. Un esempio clamoroso è fornito dallo 
stesso Hume, che in un passo celebre definisce la causa così: un oggetto seguito 
da un  altro, dove tutti gli oggetti simili al primo sono seguiti da oggetti simili al 
secondo. O, in altri termini dove, se il primo non ci fosse stato, il secondo non  
sarebbe   mai esistito (Enquiry). Questo passo ha fatto versare fiumi di inchiostro 
perché appare che nella prima parte del passo Hume definisce la causa come 
condizione ceters paribus sufficiente, mentre nella seconda usa un condizionale 
controfattuale.
    Questa ambivalenza è stata incorporta da J.L.Mackie in una delle più 
complesse e interessanti teorie della causa oggi disponibili. Secondo MacKie le 
cause sono una via dimezzo tra cause necessarie e sufficienti. Più precisamente 
sono INUS­condizioni (: sono cioè parti insufficienti ma necessarie di una 
condizione più ampia che è sufficiente ma non necessaria per l’effetto. 
L’esempio del barile pieno di polvere è tipico. Il fatto che le polveri siano 
asciutte è insufficiente  per l’effetto, ma necessario entro una condizione 
complessiva che è in sé sufficiente ma non necessaria (il barile potrebbe 
esplodere per cause diverse, per esempio un aumento anormale di temperatura).
    La teoria controfattuale della causa è sostanzialmente condivisa da Mackie nel 
suo ultimo libro, The Cement of Universe. Bisogna sottolineare che questa 
concezione è ormai una delle più condivise, anche per il fondamentale contributo 
di David K.Lewis.
    Va subito detto che anche questa concezione ha le sue difficoltà. La principale 
difficoltà è che possono esserci due o più cause che sono sufficiente per l’effetto 
ma non necessarie. L’esempio standard è quello dei due killers che colpisono un 
uomo con colpi egualmente mortali. Se il primo non avesse sparato –possiamo 
dire­ la vittima sarebbe comunque morta, e los tesso potrebbe dirsi del secondo 
killer. Allora nessuno dei due è colpevole?
     Un altro esempio spesso citato , perché tratto dalla letteratura giudiziaria, è 
quello del viaggiatore  nel deserto. Due delinquenti vogliono uccidere uno stesso 
viaggiatore che si appresta ad attraversare il deserto. All’insaputa uno 
dell’altro ,uno gli pratica un foro nella borraccia, l’altro  riempe la borraccia di 
veleno. La vittima muore disidratata: ma se avesse bevuto dalla borraccia 
sarebbe comunque morta, questa volta per avvelenamento. Questo esempio è 
leggermente diverso da quello dei due Pistoleros perché nel primo caso i due 
danno luogo a un caso di sovradeterminazione: qui invece i due malviventi 
mettono in moto due catene causali una delle quali sopravanza l’altra.
    Nonostante le difficoltà, la teoria della conditio sine qua non è quella che ha 
una tradizione più solida in campo giuridica, e che si mostra più promettente. 
Noi ci sentiamo in colpa per una certa azione quando possiamo dire che, se non 
avessimo agito in quel modo , non ne sarebbe seguito quel particolare danno. 
    La cosa importante è riconoscere che  sono diverse nozioni di causa di diversa 
forza, che però hanno come nocciolo comune quello di conditio sine qua non. La 
nozione più forte è probabilmente quella di “essere la causa” (cioè l’unica causa 
determinante). Per fare un esempio, quando diciamo
1­ La perdita al gioco è stata la causa della rovina di Filippo
Intendiamo dire che “Se Filippo non avesse subito la perdita al gioco non ci 
sarebbe stata la sua rovina”, ma anche altro e precisamente:
(*) che la perdita al gioco era sufficiente a prevedere la rovina di Filippo
(**) che nessun altro evento noto antecedente si può considerare condizione 
necessaria e sufficiente della rovina di Filippo,
    Non c’è nessun problema comunque ad accettare l’idea che le nozioni causali 
hanno   un   grado   diverso   di   complessità.     Pur   avendo   come   base   comune   un 
condizionale controfattuale, si può indicare come compito della filosofia della 
causalità   precisamente   l’analisi   di   tali   diverse   nozioni,   eventualmente   in 
linguaggi con un diverso grado di potenza espressiva.  Il riferimento ai linguaggi 
è essenziale perché, p.es., la teoria probabilistica della causa esige un linguaggio 
più   potente   del   linguaggio   che   consente   di   esprimere   i   condizionali 
controfattuali.
   Reichenbach, Salmon e Suppes ci hanno lasciato teorie probabilistiche della 
causa molto interessanti.  Quella di Suppes è la più nota agli economisti. 
Definiamo una causa prima facie C di E come un evento che incremente la 
probabilità di E (Pr(E|C) > Pr(E)). Una causa prima facie può essere spuria o 
genuina. Per essere considerata genuina bisogna far vedere che non esiste nessun 
evento precedente che incrementa la probabilità di E in misura uguale superiore 
a quello di C.  L’esempio del barometro è un tipico esempio di causa non 
genuina, perché la depressione antecedente aumenta da sola la probabilità di E in 
misura maggiore, annullando il peso di C. Su questa base Suppes si mostra 
capace di tracciare distinzioni molto sottili, come quella tra causa diretta e causa 
indiretta, causa supplementare, causa sufficiente ecc..
    Questa notevole flessibilità della teoria probabilistica della causa ha un prezzo. 
Prima di tutto la teoria di Suppes assegna probabilità a eventi, non a fatti che 
sono a loro volta relazioni causali. Eppure la causalità sussiste spesso tra fatti che 
sono a loro volta relazioni causali. Io potrei dire per esempio che Tizio è stato 
causa dell’avvelenamento mediante stricnina di Caio da parte di Sempronio.  Per 
trattare probabilisticamente questa relazione dovremmo assegnare un valore di 
probabilità a una relazione probabilistica, il che oggi non è tecnicamente 
possibile a meno di aggiungere assiomi molto problematici agli  assiomi di 
Kolmogorov.
    Questo problema non si pone nelle teorie non probabilistiche, e in particolare 
in quella controfattuale. E'  più che legittimo dire, per esempio, “se Tizio non 
avesse aiutato Sempronio allora, se Sempronio  non avesse usato la stricnina 
contro Caio, Caio non sarebbe morto” : tutto ciò è equivalente a dire che se Tizio 
non avesse aiutato Sempronio allora Caio non sarebbe morto per usato la 
stricnina usata contro di lui da Sempronio. Si noti che in base allo stesso schema 
si può trattare senza problemi anche la sovradeterminazione (se il primo killer 
non avesse sparato il secondo   sarebbe stato causa della morte di Kennedy)  che 
viceversa risulta difficoltosa anche dal punto di vista probabilistico.
    Tutto questo fa pensare che la pluralità dei linguaggi non garantisca 
automaticamente la traducibilità di un linguaggio nell’altro, e quindi sia 
necessario operare una scelta radicale tra i linguaggi. In questo momento quello 
controfattuale appare, nonostante le apparenze, più adeguato di quello 
probabilistico.
]BIBLIOGRAFIA IN LINGUA ITALIANA
Benzi,M., Scoprire le cause, Franco Angeli, Milano,2003
Bunge,M., La causalità, Boringhieri,Torino, 1963
Blalock.H. , L'analisi causale in Sociologia, Marsilio.Padova,1967
Galavotti M.C.e  Gambetta,G (a cura di) , Causalità e modelli probabilistici, 
CLUEB, Bologna, 1983
Pizzi,C, Eventi e cause, Giuffrè,Milano,1997]
 

VI. LA FILOSOFIA DELLE SCIENZE UMANO­SOCIALI.

§1. Le discipline  che studiano l’uomo (economia, sociologia, psicologia, 
antropologia, etnologia) sono state per gli epistemologi una fonte di diverse 
difficoltà, come si può desumere dal fatto stesso che è stato a volte negato loro lo 
status di scienze. è  chiaro, infatti, che non è sufficiente chiamare qualcosa 
scienza perché sia tale effettivamente, come è evidente dal fatto che si parla, per 
esempio, di scienze occulte  e scienze motorie, che con la scienza hanno poco a 
che spartire. Per non entrare qui  nel merito di questa controversa discussione ne 
parleremo come di discipline scientifiche, e non di scienze, conservando però la 
dizione corrente “scienze umane” – “scienze sociali”. Sono discipline di recente 
formazione, anche se  forse la più antica delle scienze (umane e non umane) è la 
medicina, che ha per oggetto primario  il corpo  umano e le sue patologie. 
   Qualcosa va detto sulla medicina per la sua singolarità e per l’importanza che 
riveste per la vita di tutti. Nella misura in cui si interessa alle malattie non di un 
singolo individuo ma di un’intera popolazione la medicina si può classificare tra 
le  scienza sociale. In particolare un ramo della medicina, l’, è lo studio della 
distribuzione dei determinanti delle malattie nelle popolazioni umane. Ha inizio 
verso la fine del ‘500, quando si cominciano a fare elenchi dei decessi indicando 
la presunta causa di morte. Dopo due secoli la epidemiologia si coniuga  con la 
statistica e  raggiunge risultati sempre più esatti. E'  chiaro che il problema 
basilare  che interessa gli epidemiologi è individuare le cause di una certa 
malattia epidemica partendo da dati semplicemente statistici.
   Nel 1849 e nel 1853 due epidemie di colera colpirono  l’Inghilterra. 
Osservando che nelle aree a livello del Tamigi si aveva una concentrazione della 
malattia più alta che nelle altre, raffinando progressivamente le osservazioni 
anche  con i dati circa le singole strade J.Snow arrivò a individuare nell’acqua 
potabile inquinata dalle fogna la causa dell’epidemia. Era un grande progresso, 
che faceva piazza pulita del vecchio pregiudizio per cui la causa del colera erano 
dei miasmi o contaminazioni dell’aria. Nel 1883 Koch isolò il vibrione colerico e 
quindi scoprì la causa batteriologica del colera, rendendo  possibile la 
prevenzione e la guarigione di singoli malati e non di popolazioni. Con 
ragionamenti e rilevazioni di tipo analogo Semmelweiss scoprì la causa della 
febbre puerperale nella mancanza di precauzioni igieniche da parte del personale 
ospedaliero e  introdusse  obbligatoriamente  la prassi della disinfezione delle 
mani con soluzione clorurata.
    Se la batteriologia è un ramo della medicina comunicante con la biologia, 
ci sono rami della medicina come la psichiatria e la neurologia che sono al 
confine con la psicologia, una disciplina che si è staccata dalla medicina negli 
ultimi due secoli e ora  ha caratteristiche autonome. Nel momento in cui entra 
in gioco la sfera dei fenomeni che una volta erano chiamati spirituali (volontà, 
pensiero, immaginazione, sogno ecc.)  ci si imbatte  nell’elemento principale 
che   separa   le  discipline  in   oggetto  dalle scienze   fisiche.   La  differenza  tra 
discipline  umano­sociali e scienze fisiche  ha una pluralità di aspetti.
   In primo luogo, nelle scienze umane l’uomo si trova a dover riflettere e capire 
non un oggetto esterno, ma in un certo senso se stesso. Per quanto oggettiva e 
spassionata  possa essere  l’  osservazione di un uomo da parte di un uomo, il 
medico o lo psichiatra si trova a cercare di capire qualcosa che lui stesso conosce 
in quanto li ha sperimentati personalmente : da un lato (per i fenomeni corporei) 
le   sensazioni   dolorose,   il   senso   di   sazietà   o   di   fame   ecc.   ,   dall’altro   (per   i 
fenomeni psichici)  i fenomeni dell’attenzione, della memoria, del sogno ecc.  e 
le   innumerevoli   sfumature   delle   emozioni   –   odio,   amore,   paura,   ira, 
insoddisfazione ecc.
   In secondo luogo, la complessità dei comportamenti umani  non ha reso 
possibile elaborare un corpo di leggi generali ben fondate paragonabile a quello 
di cui si dispone  nella fisica o nella biologia. Le generalizzazioni su sui ci si 
appoggia sono più ristrette e meno precise di quelle delle scienze naturali, quindi 
meno affidabili ai fini della previsione e della spiegazione. A ragione di questo e 
non solo di questo, per comune ammissione,   non esiste nelle scienze sociali 
l’unanimità che  si raggiunge nelle scienze naturali. Inoltre, rispetto alle scienze 
naturali, le divergenze epistemologiche e metodologiche  di fondo condizionano 
la ricerca in un modo enormemente più rilevante rispetto alle scienze naturali.
    Una controversia  metodologica di lunga data riguarda  la stessa opportunità di 
prendere a modello per le scienze umane le scienze naturali mature e in 
particolare la scienza regina, che è la fisica. Abbiamo già visto che i 
neopositivisti  erano accomunati dal fisicalismo, cioè dall’idea che ogni scienza 
era destinata a diventare un ramo della fisica. Anche le scienze umano­sociali per 
loro andavano quindi trattate come rami della fisica, e Neurath propose una 
<<sociologia fiscalista>>. In primo luogo, nelle scienze umane fiscaliste non c’è 
posto per valutazioni del tipo  buono/cattivo, giusto/ingiusto (ideale della 
Wertfreiheit: avalutatività, evidenziato da Max Weber) che non competono allo 
scienziato. In secondo luogo  ­ ciò che più conta  ­ non ci deve essere posto per 
asserti circa fenomeni per loro natura inosservabili , come  le intenzioni, i 
ricordi, i sogni, i pensieri e le menti  di altri soggetti. Ciò che è osservabile è 
semplicemente il comportamento: non il pensiero ma il linguaggio, non le 
emozioni ma gli atti in cui tali emozioni si esprimono , non i sogni ma i resoconti 
verbali che di questa esperienza vengono riferiti. In psicologia questo 
orientamento prende la forma del cosiddetto comportamentismo (Pavlov, 
Watson, Skinner), che consiste nell’osservare l’uomo alla stessa stregua di 
quanto si fa con in animali di un certo livello di intelligenza. Allo stesso modo in 
cui il cane   manifesta certi comportamenti prodotti da certi stimoli (per esempio 
la salivazione in presenza del cibo) , così il bambino piccolo e l’uomo adulto 
hanno comportamenti comprensibili secondo lo schema stimolo­risposta, e lo 
psicologo non deve occuparsi di nient’altro.
    Ma  se il comportamentismo poteva avere qualche plausibilità nello studio di 
individui in stato di isolamento, diventava problematico nello studio di essere 
umani in stato di aggregazione. La fisica, a differenza dell’astronomia, è una 
scienza sperimentale e deve il suo progresso al metodo sperimentale di Galileo. 
Un esperimento, come è noto, è un’interferenza deliberata con il corso della 
natura che consente di stabilire per induzione le leggi di comportamento dei 
corpi : lo stesso dovrebbero fare, secondo i comportamentisti, gli psicologi.
   Ma, mentre su un bambino possiamo compiere esperimenti come quello di 
Pavlov sui cani, come è possibile fare esperimenti su  aggregati sociali? Al 
proposito si osserva che, anche se non si possono fare esperimenti di laboratorio, 
si possono  costruire esperimenti che in qualche modo  sono loro simulazioni. 
Per esempio fu ideato un esperimento di laboratorio per determinare se i votanti 
vengano influenzati  dalla conoscenza della confessione religiosa dei candidati 
(si crearono associazioni con membri che non si conoscevano  precedentemente 
e si fecero elezioni a cariche interne. A metà degli affiliati venne rivelata la 
confessione religiosa dei candidati, all’altra metà venne nascosta; si vide che 
c’era una differenza significativa). Ma purtroppo non tutti i fenomeni sociali si 
prestano a queste esperimenti, e questo fa capire la scarsità o l’inaffidabilità delle 
leggi su cui può contare una disciplina come la sociologia.
   Un problema che è citato spesso come un ostacolo alla formulazione di leggi 
generali riguarda il “condizionamento culturale” dei fenomeni sociali. Per 
esempio  il rapporto tra  tasso di natalità e status sociale si può determinare con 
una certa  precisione  in una certa comunità in un certo periodo storico, ma può 
essere completamente diverso in comunità diverse o in periodi storici diversi. 
Possiamo parlare in questo caso di leggi? Salvo eccezioni, gli epistemologi 
concordano sul fatto che le leggi sono spazio­temporalmente invarianti.
    Possiamo allora dire che ci sono leggi  transculturali, cioè tali da applicarsi a 
tutti gli aggregati sociali  a prescindere dalla loro collocazione spaziale o 
temporale? Si è a volte sostenuto che  se la funzione delle leggi è fare previsioni 
corrette, queste leggi non possono esserci perché non garantirebbero previsioni 
sicure circa ogni periodo futuro di tempo, all’opposto di come l’astronomia ci 
permette di predire le eclissi che avverranno tra milioni anni. Ma questo non è 
possibile per la mutevolezza delle società umane e di fatto, come si osserva , 
previsioni esatte sono rare anche nel breve periodo. Possono esserci previsioni 
inesatte: p.es. si sa con certezza che la diffusione di certe notizie sui mass media 
–p.es. certi tipi spettacolari di crimini – producono effetti imitativi, ma non si sa 
prevedere la dimensione di questi, la qualità e il tempo in cui si possono 
verificare.
      Come controbiezione si potrebbe osservare che  in fisica le  previsioni esatte 
sono garantite solo dal soddisfacimento di certe condizioni che possono essere 
anche estremamente complesse: per esempio la costante gravitazionale  nella 
legge di Galileo per la caduta dei gravi (s= gt2/2) non ha lo stesso valore a tutte 
le latitudini perché dipende dalla distanza dal centro della terra, per cui le 
previsioni sono esatte purchè tale valore venga reso preciso applicando la legge 
ai casi specifici.  Questa  risposta però non viene giudicata sufficiente. Ci sono 
infatti casi in cui le previsioni nelle scienze sociali disturbano il processo stesso 
che pretendono di prevedere,e questo a ragione del fatto che nelle scienze umane 
il soggetto della conoscenza e l’oggetto conosciuto  hanno delle interdipendenze 
dovute alla natura comune. Si pensi alle  previsioni di borsa: se queste vengono 
rese pubbliche, possono disturbare l’andamento della borsa. La previsione di un 
crollo in borsa fatta da qualche autorevole analista potrebbe scatenare il panico e 
provocare esattamente ciò che esso predice (predizioni autoadempienti). In altri 
casi le  predizioni possono essere autofalsificanti (si parla di previsioni 
“suicide”). Se si prevede, p. es., un aumento di azioni terroristiche in una certa 
area questo porterà a un aumento delle misure di prevenzione e quindi a una 
falsificazione della previsione stessa.
   Questa difficoltà riguarda non solo previsioni singole ma anche  teorie 
complesse. Si è sostenuto per esempio che la predizione di Marx del crollo del 
capitalismo ha messo in moto dei processi (p.es. concessioni sindacali, misure 
previdenziali ecc.) che hanno disinnescato  i motivi che secondo Marx avrebbero 
inevitabilmente provocato  la fine del capitalismo stesso.  
   Il fenomeno dell’interferenza non deve stupire perchè si riscontra  in medicina, 
con il c.d.”effetto camice bianco”: la presenza del medico può alterare i valori 
della pressione in soggetti particolarmente emotivi. Si noti peraltro che gran 
parte delle informazioni di base in certe scienze è basato sui sondaggi o sulle 
interviste, e – al di là degli errori che si possono commettere solo per il fatto di 
usare metodi statistici errati (campioni non rappresentativi o non randomizzati) – 
il modo in cui il sondaggio viene eseguito (p.es. la stessa formulazione delle 
domande) può  influenzare le risposte dei soggetti intervistati.  
    Si può osservare che anche  nelle scienze naturali si manifesta  pure 
un’interazione tra strumento di osservazione/misura e oggetto osservato: fatto 
ben noto nell'investigazione del  mondo sottomicroscopico (che seconda una 
certa scuola di pensiero spiega il principio di indeterminazione di Heisenberg) 
ma anche nel mondo macroscopico, in cui un termometro freddo o caldo può 
modificare la stessa temperatura del liquido in cui viene immerso a scopo di 
misurazione.  Accade però che queste modificazioni o sono trascurabili o 
possono essere calcolate in modo esatto e invariabile, cosa che non accade nella 
sfera dei fenomeni sociali.
  Di fatto si registra  un alto grado di  imprevedibilità sia nei comportamenti 
individuali che in quelli degli organismi sociali. Per fare un solo esempio, un 
fenomeno ben noto e sempre osservato, soprattutto quando è in gioco 
l’applicazione di utopie (p.es. l’abolizione della famiglia o della proprietà 
privata) è quello della controfinalità o eterogenesi dei fini:  ciò che si ottiene non 
solo è diverso da quanto ci si propone di realizzare ma è agli antipodi di questo. 
Si pensi che gli ideali di libertà, eguaglianza e fraternità hanno portato al Terrore 
della Rivoluzione Francese e  quindi a risultati esattamente opposti da quelli che 
si cercava di conseguire.
     Fin qui abbiamo dato per scontato che  l’obiettivo distintivo delle scienze sia 
quello di  garantire previsioni o retrodizioni esatte. Ma si potrebbe obiettare che 
vedere  nella previsione l’obiettivo fondamentale della scienza è  da un lato 
riduttivo, dall’altro troppo pretenzioso. Secondo Hempel c’è una simmetria tra 
spiegazione e previsione, nel senso che ogni previsione può essere convertita in 
una spiegazione hempeliana e viceversa (tesi della simmetria). Ma Hempel 
stesso ha avuto dei ripensamenti sulla tesi della simmetria.     In questa sede è 
meglio sostenere che scopo primario della scienza non è la previsione ma la 
spiegazione, eventualmente fatta col senno di poi. Il crollo di Wall Street, la fine 
repentina del comunismo in Europa, le rivolte nel Nord Africa sono stati  eventi 
che erano imprevisti nel momento in cui si sono verificati, ma oggi siamo in 
grado di darne una spiegazione più o meno convincente, così come spieghiamo a 
posteriori incidenti aerei che non erano umanamente prevedibili nel momento in 
cui si verificavano.
   
§2   Ritornando alla questione dell’interferenza, bisogna prendere atto che, pur 
rendendo   problematiche   le   previsioni,   anche   le   interferenze   sono   oggetto   di 
conoscenza e possono essere   descritte entro leggi sufficientemente affidabili. 
Dunque si può sostenere che è possibile stabilire alcune leggi del comportamento 
di individui isolati e di gruppi sociali e che  leggi possono essere usate , se non 
per la previsione, sicuramente per la spiegazione. 
   Qui però interviene un’altra difficoltà, dovuta al fatto che le leggi in questione, 
e le spiegazioni che esse autorizzano, non possono essere leggi descrittive di soli 
comportamenti, come i comportamentisti hanno richiesto. Le azioni umane sono 
mosse da intenzioni, aspettative, timori, speranze, illusioni ecc., e tali stati interni 
non possono osservati come si osserva la caduta di una mela dall’albero. Ma un 
comportamentista potrebbe anche  non aderire a una forma di rozzo riduzionismo 
che vieti di parlare di stati interni. Allo stesso in cui “massa” e “peso” sono 
termini teorici che vengono agganciati al piano osservativo mediante acconce 
regole   di   corrispondenza,   così     termini   come   “”paura”,   “attenzione” 
“ambizione”,…  designano   stati  interni   che però esistono nella misura in cui 
hanno delle manifestazioni osservabili. Nonostante questo garantisca un grande 
ampliamento di prospettive, è chiaro comunque che l’introspezione però viene 
esclusa   come   metodo   di   conoscenza,   perché   non   si   può   ricondurre   a 
comportamenti pubblicamente osservabili.   Con buona pace degli psicoanalisti, 
dovremmo rinunciare a considerare, per esempio, i sogni   come elementi che 
producono conoscenza, per il semplice fatto che ciascuno sogna sempre i propri 
sogni e non i sogni altrui (e tra l’altro ne diventa consapevole al risveglio, con 
una dubbia anamnesi).
       Ci sono alternative al comportamentismo più o meno liberalizzato? Un’ 
alternativa è questa: noi possiamo capire gli eventi storici, sociali, e psicologici 
perché noi , in quanto uomini o donne, sperimentiamo stati interni simili a quelli 
degli agenti che vengono studiati. Possiamo in altre parole dire, p.es. : “se fossi 
stato un calvinista del 500 in un paese come l’Olanda avrei partecipato a quel 
fenomeno sociale descritto come capitalismo nascente” (la verità di questo 
controfattuale è implicita nella tesi di Weber che vede una connessione tra 
nascita del capitalismo e etica protestante).  Non si possono, in altre parole, 
capire i fenomeni umano­sociali senza una certa dose di empatia (il “mettersi nei 
panni degli altri”). A questo punto però si può fare a meno della spiegazione 
mediante leggi e  puntare esclusivamente sulla comprensione dei fenomeni 
(Verstehen contrapposto a Erklaren). 
   Nell’800  la distinzione tra spiegazione mediante leggi e comprensione è stata 
più volte teorizzata insieme alla distinzione tra scienze nomotetiche (come le 
scienze naturali) e scienze idiografiche (come la storiografia) che  hanno come 
obiettivo la descrizione esauriente di fatti, o complessi di fatti, che hanno una 
loro fisionomia irripetibile e pertanto  non possono essere soggetti a leggi. Se è 
difficile trovare due  individui  che hanno malattie simili in circostanze simili (si 
pensi che ci sono malattie, p.es. allergie rarissime, che colpiscono solo  poche 
persone al mondo) a maggior ragione sarà difficile trovare situazioni storiche 
simili in cui accadono eventi simili (p.es. guerre o rivoluzioni). Si è a volte detto 
che la Rivoluzione Russa del '900 è simile a quella Francese del '700, ma è più 
facile trovare delle differenze tra i due fenomeni che non dei tratti comuni.  Se 
poi dico, per esempio,  “Luigi XIV morì impopolare perché fece una politica 
nociva per gli interessi  nazionali” dove si può trovare una legge che funziona 
come spiegazione del fatto che Luigi XIV morì impopolare?  Dovrei trovare casi 
simili nella storia, ma di fatto di simile a Luigi XIV c’è solo Luigi XIV. 
Secondo il filosofo della storia W.Dray lo schema di Hempel non si applica  alle 
scienze umane: a suo giudizio una certa azione umana o politica  si spiega solo 
facendo vedere che nelle date circostanze era la cosa più razionale da fare.
    G.H. Von Wright ha pure insistito sul fatto che il comportamento intenzionale 
o finalistico va compreso con metodi diversi da quelli che fanno ricorso a leggi 
associative o causali. Quello che von Wright chiama “sillogismo pratico” (non 
riducibile a schemi di ragionamento deduttivo o induttivo) ha questa forma:
      x intende  provocare E
x ritiene di non poter provocare E se non fa l’azione A
x si dispone a fare A
Secondo von Wright la conclusione descrive un fatto che si può conoscere solo 
comprendendo le intenzioni di x , e questo non si può conseguire con la semplice 
osservazione del comportamento.
   La rinuncia alla spiegazione mediante leggi porta all'obiettivo di qualificare
discipline come la psicologia, l'etnologia, l'antropologia, l'etnolinguistica come 
scienze idiografiche. In tal caso bisogna richiamare l'attenzione sul fatto che i 
ricercatori di queste discipline spesso  non valutano  adeguatamente  la 
differenza  tra la cultura a cui appartengono e quella dei soggetti con cui 
vengono a contatto: differenza che può interessare proprio l'atteggiamento dei 
nativi verso i metodi di indagine usati  dai ricercatori (interviste, fotografie, 
registrazioni ecc.) nella misura in cui questi sono   prodotti di una cultura 
estranea ai nativi stessi. Non è detto, per esempio, che gli intervistati si 
preoccupino di  rispondere alle interviste riportando fatti reali piuttosto che fatti 
immaginari o mitici, dato che non condividono il presupposto culturale secondo 
cui l'intervistato dovrebbe attenersi all'ideale della veridicità.   
     Come è noto, il c.d.  relativismo culturale  mira a depurare l' osservazione di 
soggetti o gruppi appartenenti a culture diverse da valutazioni di tipo 
etnocentrico, cioè derivate dalla cultura stessa del ricercatore.    Il fatto che le 
discipline in questione sono  in ogni caso  un prodotto della cultura occidentale 
degli ultimi due secoli pone comunque  al raggiungimento di questo obiettivo un 
limite strutturale, in parte esemplificato dalle difficoltà sopra esposte . 

§3  La storiografia è la più  controversa delle discipline umano­sociali, al punto 
che    più volte le si è negata  la cittadinanza nel dominio della scienza (secondo 
una versione benevola, sarebbe a metà strada tra scienza ed arte). Il motivo 
principale di questa ripulsa è che a quanto pare non ci sono leggi  propriamente 
storiche, e se queste  si possono formulare queste vengono spesso considerate 
pertinenti ad  altre scienze (p.es. può essere vero che periodi di costumi sessuali 
rilassati si succedono a periodi di costumi sessuali  restrittivi, ma, se questa è una 
legge, può essere classificata come una legge sociologica, non squisitamente 
storica).La storiografica dovrebbe essere, dunque, per eccellnza, una disciplina 
idiografica.
   Agli antipodi rispetto alla storiografia nel campo delle scienze umano­sociali si 
colloca l’economia, che si  è  sviluppata come disciplina scientifica dal tronco 
della   filosofia     nell’800,   anche   se   il   capolavoro   di   Adam   Smith   è   del   1776. 
Rispetto ad altre discipline è stata la prima ad usare strumenti  matematici anche 
molto complessi (che a qualcuno, come Norbert Wiener, sono sembrati un modo 
per   camuffare   la   sua   arretratezza   rispetto   alle   scienze   naturali).Ciò   che   è 
sembrato fin dall’inizio metterla sullo stesso piano delle scienze naturali è il fatto 
che l’esito di una miriade di comportamenti economici individuali volontari  può 
tradursi   in   un   comportamento   collettivo   involontario   ma     (p.es.   un   aumento 
generalizzato dei prezzi). In tal modo il comportamento della collettività non si 
può paragonare a quello dei singoli e non dipende dalla considerazione di stati 
interni, il che fa pensare che i fenomeni economici macroscopici  siano trattabili 
come fenomeni naturali.
   Rispetto alle scienze naturali tuttavia colpisce  la distanza che separa le teorie 
economiche  dai fatti, soprattutto macroeconomici, a cui si riferiscono. Per citare 
le parole di Daniell Hausman, fondatore della rivista Economics and 
Philosophy,”con un po' di esagerazione si potrebbe concludere  che l’economia 
contemporanea possiede tutti i segni distintivi di una scienza matura, tranne il 
successo empirico”. Ci sono cinque temi principali che impegnano la 
metodologia della scienza economica.
1) Molti principi economici contengono asserzioni sul mondo dal   punto di 
vista soggettivo di un agente individuale. E'  un freno alla vera scienza?
I principi centrali dell’economia (p.es. “tutti preferiscono maggiore benessere a 
minore benessere”) sono inesatti, cioè devono far fronte a un numero esorbitante 
di controesempi. Come si può costruire una scienza in tali condizioni?
Gli economisti contemporanei esitano a parlare di “teorie” o “leggi” e 
preferiscono operare con “modelli”.
      Le   relazioni   causali   in   economia   sono   difficili   da   identificare   perchè   i 
fenomeni   economici   sono   interdipendenti.   In   termini   di   variabili,   è   normale 
essere costretti a  dire  che x influenza y, y influenza z,  ma z influenza a volte x.
Qual è il fondamento empirico della fiducia nei modelli, dato il loro scarso 
aggancio con i fatti?
   Le prime considerazioni metodologiche si trovano in Nassau Senior (1836) e J. 
S. Mill (1836). Mill distingue metodo  a posteriori  a metodo  a priori. I famosi 
metodi   di   Mill   per   scoperta   delle   cause   sono   metodi  a     posteriori,   ma 
sfortunatamente inapplicabili alla sfera economica. Il più importante di questi 
metodi è il Metodo della Differenza.  Per sapere, per esempio, se i dazi doganali 
favoriscono   o   no   lo   sviluppo   economico     dovrei   confrontare   nazioni   che   li 
applicano con nazioni che non li applicano, ma non ci sono mai nazioni che sono 
diverse  solo  per   questa   caratteristica.   Anche   il   ragionamento   controfattuale  è 
problematico per questo motivo. Dunque bisogna ricorrere al  metodo a priori. 
Si   fissano   alcune   leggi   generali   valide   inattaccabili   e   le   si   usano   per   fare 
previsioni   attendibili   in   circostanze   date,   che   possono   essere   sbagliate   senza 
inficiare le leggi prestabilite. In tal modo possiamo accettare l’economia come 
scienza   inesatta   e   separata,   cioè   sviluppata   ignorando   deliberatamente   le 
informazioni   fornite   da   altre   discipline.   Anche   se   non   parla   di   modelli,   Mill 
prefigura   l’importanza   dei   modelli     e   anticipa   la   metodologia   degli   ultimi 
decenni.
   Questo orientamento incontrò critiche severe da economisti più o meno 
influenzati dal   neopositivismo. P.es. Terence Hutchison negli anni ‘30 osservò 
che le clausole ceteris paribus che si associavano  gli  asserti teorici erano così 
numerose da rendere inapplicabili (e quindi prive di senso empirico) le teorie 
economiche. Negli anni 50 Fritz Machlup e Milton Friedman argomentarono che 
gli economisti devono predire con esattezza solo i prezzi e le quantità, cioè i dati 
di mercato misurabili, ignorando tutto ciò che esorbita da questi. In questo 
strumentalismo  esasperato ogni ipotesi che non venga ricondotta 
all’econometria viene giudicata irrilevante. Ma questo sembra in contrasto con la 
prassi corrente, inclusa quella di Friedman,  in cui molte ipotesi, anche nel 
linguaggio causale che Friedman rifiuta, vengono mantenute anche quando sono 
falsificate dai dati di mercato.  Non c’è da stupirsi se questa pluralità di 
atteggiamenti ha portato a una proliferazione di studi metodologici, che 
occupano orami quasi una metà della letteratura economica. Seguendo la 
classificazione di  Hausman,  gli orientamenti emersi si possono classificare in 
quattro categorie.
a) T. Hutchison e Marc Blaug (1992)  hanno difeso una posizione 
neopopperiana. Si noti che Popper è stato considerato, non si sa se correttamente, 
l’alter ego filosofico dell'economista F. von Hayek. Uno dei problemi più 
imbarazzanti del popperismo è  il fatto che normalmente una teoria h è sottoposta 
al tribunale dell’esperienza insieme ad altre assunzioni c1…cn, ragione per cui 
ciò che viene falsificato non è mai h ma la congiunzione h & c1…cn. (problema 
di Duhem). In economia è particolarmente difficile stabilire quali elementi di 
questa congiunzione sono effettivamente falsificati. Non stupisce che sia  stata 
accolta con favore quindi la metodologia dei programmi di ricerca di Lakatos, 
che  propone un cocktail di Popper e Kuhn , ammorbidendo  i criteri di 
falsificazione.
b) In fuga dalle difficoltà metodologiche, alcuni  metodologi si sono allontanati 
dalla filosofia della scienza, coltivando una “antimetodologia” : l’attenzione va 
alla   retorica   del   linguaggio   economico   (Weintraub)   e   alle   caratteristiche 
sociologiche della pratica economica (D.W. Hands). D. McClosky   (1985) ha 
detto che gli economisti devono solo badare alla propria retorica, cioè al modo in 
cui si influenzano reciprocamente. è  la versione economica di Rorty.
c) Allo stesso modo in cui W. Salmon negli ultimi anni ha sviluppato la tesi 
secondo cui al di sotto dei fenomeni esistono realmente “meccanismi causali” 
che la scienza mira a scoprire, autori come Tony Lawson (1997) e  Uskali Maki 
(1990) hanno teorizzato un realismo causale, che Maki riscontra nella storia del 
pensiero economico. N. Cartwright difende l’importanza del ragionamento 
causale nell’economia e nell’econometria, anche se con un atteggiamento non 
realista
d) Un’altra corrente è quella che si rifà alla concezione strutturalista delle teorie 
di Suppes, Sneed, Stegmuller secondo cui una teoria scientifica  non è una 
costruzione assomatica ma è una  struttura consistente di un nucleo algebrico­
matematiche associabile a un certo insieme di applicazione.  
     Stando a Hausman pare che si rilevi una schizofrenia metodologica per cui, 
nonostante   le   varie   professioni   di   fede,   la   metodologia   seguita   in   pratica   è 
sostanzialmente  quella di Mill. Se è così, però, la metodologia che di fatto viene 
applicata,   non   quella  che   viene  professata,      è   compatibile  con quella  delle 
scienze  naturali avanzate,  e  si  apre il compito di   formulare esattamente una 
metodologia unificante.
   Un' area in grande sviluppo nella quale si incontrano filosofia, economia e 
matematica è  la trattazione economica dei temi della preferenza e della scelta 
trattabile nell'ambito della c.d. Teoria delle decisioni. Gli economisti adottano 
spesso l’idealizzazione per cui si rappresentano le  credenze di un soggetto come 
quozienti di scommessa in condizioni di conoscenza completa o incompleta . C’è 
uno studio economico delle funzioni di utilità, dove l’utilità è il prodotto della 
probabilità  del verificarsi di un evento per    il guadagno ottenuto con il 
verificarsi dello stesso. Questi studi si saldano con i metodi della teoria dei 
giochi, fondata da von Neumann e Morgenstern e sviluppata da matematici come 
Nash. A parte la fecondità dell’interscambio tra economia e matematica su questi 
temi,  bisogna tener conto che le strategie studiate da questi scienziati  poggiano 
su alcune norme più o meno esplicite come : “bisogna  massimizzare l’interesse 
atteso”, “bisogna evitare una perdita certa in un sistema di scommesse” ecc. 
Questo riapre una questione che inizialmente si è data per risolta accogliendo la 
tesi di Weber della avalutatività delle scienze umano­sociali. In economia questo 
problema acquista significato particolare data la sua  interazione con la politica.
   E'  quasi scontato in economia  identificare il benessere con la soddisfazione 
delle proprie preferenze egoistiche.    Apparentemente questo sembra un 
postulato neutro;  di fatto però implica che non si ha benessere se non come 
perseguimento di preferenze egoistiche, il che sembra avere una connotazione 
valutativa in quanto esclude altre definizioni diverse di benessere che potrebbero 
essere plausibili  in   contesti politici ed etici diversi. A volte, si potrebbe 
sostenere, le preferenze egoistiche non sono garanzia di benessere né per sé né 
per altri. Si pensi a un ragazzo che  vuole andare in motorino senza casco perché 
tale è la sua preferenza e perché  è convinto che questo sia il suo vantaggio. La 
sua convinzione potrebbe essere falsa, anzi di fatto lo è. 
   Va inoltre osservato che il comportamento degli uomini reali non è 
invariabilmente egoistico, anche se le manifestazioni di altruismo potrebbero 
essere risultato di un calcolo più o meno consapevole.  Ci sono animali, non solo 
uomini, che si sacrificano per salvare la specie, e sembra che questo sia scritto 
nel codice genetico (incidentalmente, in contrasto con la teoria di Darwin 
secondo cui tutti i nostri geni sono funzionale al vantaggio  individuale). Sarebbe 
al proposito utile studiare il comportamento umano con l’ausilio delle scienze 
della vita.
    Nonostante le apparenze,economia sembra dunque avere dei risvolti valutativi 
che mancano in altre discipline umano­sociali (come la psicologia) e sono assenti 
dalle scienze naturali.E'  un problema aperto sapere se questo aspetto 
comprometta o no  la sua legittima aspirazione a costituirsi come scienza.

 [BIBLIOGRAFIA ESSENZIALE IN ITALIANO
J. Hicks, Analisi causale e teoria economica, Il Mulino, Bologna, 1981
 E. Nagel, La struttura della scienza, Feltrinelli, Milano, 1968,cap.xiii
G.H. von Wright, Spiegazione e comprensione, Il Mulino, Bologna, 1971
P.Barrotta e T.Raffaelli, Epistemologia ed Economia, UTET, Torino,1998
M.C.Galavotti e G.Gambetta (a cura di), Epistemologia ed economia, CLUEB, 
Bologna, 1988
M.Weber, La metodologia delle scienze storico­sociali . Einaudi, Torino, 1958]

  
VII­L’INTELLIGENZA ARTIFICIALE E LA SCIENZA COGNITIVA  
§1. Si può iniziare con un breve excursus storico. Negli  anni ‘30 un problema 
sentito   era   quello   di   definire   rigorosamente   il   concetto   di   algoritmo,   cioè 
(intuitivamente)   di   una   procedura   di   calcolo   che   applicando   in   modo 
deterministico   un numero finito di istruzioni dà un risultato univoco in tempo 
finito. Gödel per aprire la strada al suo celebre teorema definì un insieme di 
funzioni,   dette   ricorsive   primitive,   che   rappresentavano   algoritmi   basilari   da 
considerare   il   nocciolo   della   teoria   della   computazione,   nel   senso   che     ogni 
procedura di calcolo avrebbe dovuto essere definita a partire da queste.
      Negli anni 36­37  a Cambridge Alan Turing seguì un’altra via: quella di 
definire una macchina calcolatrice ideale di elementare semplicità progettata per 
il calcolo di funzioni aritmetiche, di cui tutte  le macchine calcolatrici concrete 
apparissero come casi specifici. 
     Per avere una macchina di Turing (MT)  bisogna disporre di un linguaggio 
con un alfabeto  finito di simboli  che sia  in grado di generare un numero 
infinito di formule. Queste formule, che la macchina è destinata a elaborare, sono 
stampate su un nastro infinito che attraversa la macchina.  Il nastro è diviso in 
celle e la macchina esamina una cella alla volta mediante una testina sensibile. 
La MT può fare solo quattro  cose: 1)cancellare un simbolo su una casella e 
scriverne un altro al suo posto; 2)muovere la testina di un posto a destra; 3) 
muovere la testina di un posto a sinistra; 4)fermarsi. La macchina inoltre 
memorizza le operazioni compiute e quindi ha stati di memoria diversi ad ogni 
passo.
  Ogni macchina di Turing è caratterizzata dall’insieme di istruzioni che 
descrivono il suo programma. Queste istruzioni sono rappresentate come 
quadruple di forma n1­n2­n3­n4 che si leggono così: se sei nello stato di 
memoria n1 e leggi il simbolo n2, fai l’operazione n3 e vai nello stato n4 . Il 
funzionamento della macchina è deterministico: la macchina non procede per 
sorteggi o “a casaccio” in nessun punto del processo.
   In termini concreti una MT si compone di un corpo centrale che può assumere 
stati diversi, ha un' unità di lettura e un' unità di scrittura che possono anche 
coincidere, poste in modo da ispezionare le caselle del nastro illimitato, e   un 
meccanismo in grado  di spostare il nastro   a sinistra e a destra di un certo 
numero di posizioni. Il calcolo è una successione finita di applicazioni delle 
istruzioni partendo da una posizione fissata. 
  Un esempio semplice di MT è una macchina che partendo da certe formule 
numeriche come input calcola come output il valore delle usuali funzioni 
aritmetiche (addizione, moltiplicazione ecc). Quando un problema è risolto –cioè 
quando è stato calcolato il valore della funzione­ la MT si ferma, mentre la 
mancata fermata (il preseguire all’infinito) indica la mancata soluzione del 
problema.
    La c.d. tesi di Church­Turing afferma che ogni funzione algoritmica (funzione 
ricorsiva) è calcolabile da una macchina di Turing e, viceversa, ogni funzione 
Turing­calcolabile  è una funzione algoritmica. In particolare, ogni computer 
costruibile è un esempio particolare di macchina di Turing. Questa tesi (che ha la 
forma di una congettura) nonostante gli sforzi per trovare dei controesempi, è 
considerata ancor oggi valida.
    Secondo un punto di vista diffuso, le operazioni di un uomo che calcola si 
possono pensare  come operazioni eseguibili da una macchina di Turing. Cosa 
implica questo asserto?  Si vuole dire    che il pensiero umano è meccanizzabile? 
Oppure, conversamente, che  tutti i calcolatori si possono considerare come 
oggetti “pensanti” di tipo speciale?  Possiamo dire sensatamente  che le 
macchine pensano?  Turing a questo proposito suggeriva un test (test di Turing) 
mirante a stabilire se una macchina può imitare un uomo al punto di ingannare 
un interrogante  che non sappia   se l’autore di una certa performance è un uomo 
o una macchina. Turing era ottimista sul futuro della computer science; riteneva 
infatti che nel giro del XX secolo il 70% della macchine avrebbero superato il 
test di Turing. Tale ottimismo può dirsi incoraggiato del fatto che oggi ci sono
macchine scacchiste in grado di battere grandi campioni.
   Ma   il teorema di Gödel,  secondo molti, suggerisce che  esistano operazioni 
razionali della mente umana che non sono rappresentabili in termini meccanici. 
Nel  1938  Alonzo Church dimostrava che la logica dei quantificatori non è 
decidibile, e cioè che c’è un numero arbitrariamente grande di formule di cui non 
possiamo dire in linea di principio se sono o meno teoremi del calcolo.  La logica 
assiomatizzata di Frege quindi non è in grado di risolvere in modo meccanico 
tutti i problemi esprimibili nel linguaggio. Il teorema di Church afferma che non 
è in linea di principio possibile costruire una macchina che risponda a tutte le 
domande esprimibili in linguaggio logico, il che sembra comportare una 
limitazione intrinseca alle capacità delle macchine di Turing. 
   La macchina di Turing  non è in grado di calcolare tutte le funzioni possibili, 
come è chiaro da una semplice considerazione.   Ciò che è interessante è che la 
definizione astratta data  della  macchina di Turing   consente di identificare una 
speciale macchina di Turing, detta Macchina di Turing Universale (MTU), che 
“simula”, per così dire, le altre macchine di Turing. Infatti, dato che ogni 
macchina di Turing è identificata dall’insieme delle sue istruzioni ( che sono 
quadruple di simboli), tali insiemi di istruzioni   possono essere  rappresentate 
univocamente  da un numero naturale , e così diventare elementi dell’input della 
MTU.  Questo vuol dire che la MTU può anche parlare di se stessa, e acquista le 
virtù dell’autodipendenza o autoriferimento.  Incappa quindi in difficoltà tipo 
quella del mentitore. Poniamole questo semplicissimo problema:
 “Non ti fermerai?  ”. I casi sono due: o la macchina si ferma o non si ferma. Se 
la macchina si ferma, risponde affermativamente alla domanda , e se non si 
ferma ,  risponde negativamente alla stessa domanda. Quindi se si ferma vuol 
dire  che è vero che non si ferma e se non si ferma vuol dire che è falso che non 
si ferma, quindi è vero che si ferma. Questo è il tipico esempio di un problema 
insolubile, cioè  di una funzione non computabile.  
    Questo risultato faceva fallire da un lato il sogno leibniziano di trovare una 
macchina che risolva tutti i problemi, dall’altro gettava ombra su alcune vecchie 
teorie filosofiche, come quella di Hobbes, secondo cui  pensare  è  calcolare. 
    Quando Hobbes scriveva, non c’erano né macchine sviluppate né una 
psicologia sviluppata né una logica sviluppata. Ma tutti gli elementi per 
un’analisi scientifica (extrafilosofica) della mente cominciavano ad essere 
abbondantemente disponibili negli anni 80.    Non c’è da stupirsi se nasceva in 
questi anni   un filone di  studi sulla natura della mente umana che si collocava a 
cavallo tra la filosofia tradizionale e altre discipline che in modi diverse 
studiavano la mente. Negli anni 80­90 la continua interazione tra le discipline 
che entravano in gioco nella c.d. “philosophy of mind” diventava così complessa 
da  configurare una disciplina autonoma, a cui è stato dato il nome di scienza  
cognitiva. Altri preferiscono parlare di scienze cognitive (al plurale) perché al 
momento questa disciplina si presenta ancora come un accorpamento di diverse 
discipline integrate, in particolar modo la linguistica, la filosofia, la psicologia 
cognitiva e naturalmente l’informatica. Non manca l’apporto di discipline a 
carattere tecnologico come la robotica. L’elemento unificante della scienza 
cognitiva consiste nel concepire i processi mentali come fatti computazionali e 
nella   visione naturalistica della mente. I confini tra i vari settori non sono netti : 
ciò che conta è la sinergia interdisciplinare. Basti pensare al modo in cui la 
robotica ha influenzato gli studi sulla percezione visiva grazie alla creazione di 
apparecchi e protesi.
    Può essere utile ritornare alla già vista influenza del neopositivismo sulla 
psicologia, che ha portato allo sviluppo del comportamentismo, che riduceva 
inizialmente ogni fenomeno alla coppia stimolo­risposta. Come abbiamo visto, il 
comportamentismo liberalizzato ammetteva l’uso di termini teorici per dare un 
senso agli stati interni. Nel  1948 Tolman, per render conto del comportamento 
dei topi nei labirinti, introduceva la nozione di mappa cognitiva dell’ambiente, 
cioè di qualcosa che va oltre il comportamento osservabile e al meccanismo 
stimolo­risposta.   In quegli anni   cominciò ad affermarsi l’idea della mente 
come sistema di elaborazione di informazioni, per cui le entità teoriche 
descrivevano stati di un dispositivo di calcolo: è chiaro che la tesi di Church­ 
Turing, nonostante i limiti visti,  suggeriva fortemente la costruzione di modelli 
meccanici per ogni forma di calcolo anche non numerico , suggerendo una 
concezione computazionale della mente Si noti : a) che l’impostazione 
computazionale consente di sviluppare una nozione di mente   compatibile con 
la visione fisicalista del mondo.  b)che  i  programmi implementati nei 
calcolatori digitali possono funzionare come simulazione di processi cognitivi.  
    Si noti che le spiegazioni computazionali della mente si allontanano dallo 
schema di Hempel­Oppenheim. Un algoritmo o un programma non coincidono 
con insiemi di leggi  nel senso di Hempel. Siamo di fronte a modelli della 
mente,e  bisognerebbe quindi ampliare la concezione della spiegazione in modo 
da dare legittimità all’idea di spiegazione mediante  modelli.
   Da  queste idee si sviluppava  molto naturalmente il cosiddetto funzionalismo 
(legato in particolare al nome di H.Putnam) secondo cui  ciò che identifica gli 
stati computazionali non è il supporto fisico (hardware), ma il rapporto degli 
stati tra loro. Quindi la mente  si può pensare non come una sostanza materiale 
ma  come base delle relazioni mentali tra stati fisici. Questo è diventato il punto 
di vista “ufficiale” delle scienze cognitive, banalizzato nello slogan: 
mente:software = cervello :hardware.
    E'  ovvio che, alla luce dei limiti visti della tesi di Turing, ci sono state 
opposizioni a questo punto di vista, che –per usare un vecchio linguaggio ­ nega 
l’irriducibilità dello spirito alla materia. J.R.Lucas e R.Penrose hanno utilizzato il 
teorema di Gödel per contrastare  l’idea che la mente sia rappresentabile come un 
computer. “C’è una formula che non è dimostrabile  meccanicamente ma che noi 
possiamo vedere essere vera”, dice Lucas. Ma  secondo i funzionalisti ci sono 
degli equivoci su questo punto.   Il teorema di Gödel in effetti può essere inteso 
in due modi:1)dimostra che questo enunciato esiste indipendentemente dalla 
mente umana oppure ­ 2) dimostra che per ogni teoria coerente e completa esiste 
un algoritmo che  genera un enunciato che è vero nel modello dei numeri naturali 
ma non è dimostrabile. (Questo presupponendo la tesi di Church che identifica 
funzioni ricorsive e funzioni Turing­calcolabili). Se è così, il procedimento di 
generazione dell’enunciato in questione è   in definitva meccanizzabile, contro 
quanto sostiene Lucas.
     Torniamo dunque alla plausibilità del concepire la mente umana come un 
computer . Come si vede leggendo  il celebre “Gödel, Escher, Bach” di 
Hofstadter, questo è il punto di vista quasi ufficiale su questo argomento. Eppure 
i dubbi sono legittimi e  vanno presi in considerazione.
   Per tornare a un punto connesso: si vuole allora dire che le macchine pensano? 
Una volta qualcuno  chiese a McCarthy – l’inventore dei linguaggi di 
programmazione LISP ­  se un termostato avesse credenze. Lui rispose sì. Le 
credenze sono  “qui fa troppo  freddo “, “qui fa troppo caldo”, “qui si sta bene”. 
   Ci sono due argomenti, quello della Terra Gemella di Hilary Putnam e quello 
della Stanza Cinese di Ronald  Searle, che sono stati elaborati per  criticare la 
tesi che gli stati mentali sono stati computazionali.
Terra Gemella. Immaginiamo un pianeta gemello della terra in cui tutto è come 
da noi salvo che l’acqua non è H 0 ma qualcos’altro (ossido di deuterio). Un mio 
2
gemello identico vuole bere acqua simultaneamente a me nella terra gemella. 
Siamo   ambedue  nello   stesso   stato  computazionale,  ma  non nello  stesso   stato 
mentale, perché il contenuto dei due stati è differente e potremmo essere delusi 
bevendo deuterio anziché acqua.
Stanza Cinese. L’informatico Roger Schank ha creato programmi progettati per 
simulare la   lettura  e la comprensione di una storia. R. Searle nega che la 
macchina comprende e risponde alle domande sula storia. Immaginiamo un 
soggetto  chiuso in una stanza che ignora il cinese ma riceve dei messaggi in 
cinese , riceve un foglio di domande in cinese  e dispone di  un insieme di regole 
per   produrre scritti cinesi in risposta al secondo foglio. Lui si comporta 
esattamente come un computer,  e supera il test di Turing senza capire nulla. Se 
le macchine pensano, mancano dei poteri causali della mente che assicurano   la 
caratteristica ritenuta distintiva  dell'attività mentale umana, che nella tradizione 
filosofica ( scolastica medioevale, Brentano, Husserl) si chiama  intenzionalità. 
La psicologia del senso  comune è quel corpo di conoscenze e di 
generalizzazioni che si basa sull’attribuzione di credenze e desideri a se stessi e 
agli altri, con lo scopo di spiegare i comportamenti umani.
    La cosiddetta TCRM (Teoria Computazionale Rappresentazionale della 
Mente)   proposta da J. Fodor si propone come una mediazione tra il 
funzionalismo del primo Putnam e  psicologia del senso comune. L’idea di Fodor 
è che pensare vuol dire manipolare un linguaggio speciale , il mentalese 
(linguaggio della mente): p.es. credere che p significa  avere nella mente una 
certa proposizione del mentalese che sta in certi rapporti definiti con altre 
proposizioni del mentalese.
    Avverso a Fodor è l’eliminativismo: una forma moderna del materialismo e 
del comportamentismo, ma compatibile con il funzionalismo, che ritiene che la 
psicologia del senso comune sia sbagliata e vada eliminata in una scienza matura 
(Patricia Churchland). 
   Il dibattito sulle immagini mentali ­ essenzialmente pittoriche per alcuni, 
essenzialmente proposizionali per altri­  illustra significativamente gli sviluppi 
della scienza cognitiva. Solo nel 1996 questa  controversia filosofica venne 
corroborata con dati derivati dalle neuroscienze (Kosslyn). Nello stesso tempo le 
neuroscienze si avvicinavano alle scienze cognitive, dando vita alle neuroscienze  
cognitive. Negli anni 80 c’ è stato un revival di modelli connessionisti, in cui ci 
si allontanava dai modelli computazionali tradizionali per introdurre modelli 
computazionali ispirati all’architettura neuronale. L’interazione tra scienze 
cognitive e scienze biologiche è tuttora in pieno sviluppo.
   Una tendenza emersa negli ultimi due decenni riguarda anche l’influenza di 
fattori ambientali (sociali ma anche fisici e biologici); si parla di “cognizione 
situata”, che riguarda anche la percezione  derivata dall’ambiente. L’accento in 
questo caso è più sulla ricezione che sull’ elaborazione; si  guarda al 
comportamento reattivo di animali molto semplici, come p.es. gli insetti, per 
costruire robot (etologia cognitiva di Wilson e Keil,1999). 
  Accanto allo scambio interdisciplinare con la biologia e la zoologia abbiamo 
anche l’interazione con l’antropologia.    Il relativismo culturale degli anni 60­70 
è stato chiaramente marginalizzato in quanto le scienze cognitive presuppongono 
l’invarianza della mente umana rispetto ai fattori ambientali: valga al proposito 
la tesi Chomskiana del carattere innato delle facoltà linguistiche. C’è stata una 
ripresa del concetto, considerato fuori moda, di natura umana.  Sulla stessa onda 
si possono considerare le spiegazione evoluzionistiche dei comportamenti 
cognitivi e si possono sviluppare anche modelli computazionali del processo 
evolutivo (evolutionary computation e  vita artificiale). 
    Si è avuto anche una ripresa di interesse per la coscienza e per le emozioni, 
categorie dimenticate o  trascurate nella fase iniziale. Si distingue tra coscienza 
cognitiva e  coscienza fenomenica. La seconda riguarda la capacità di un agente 
di accedere ai propri stati qualitativi (qualia: “i modi in cui le cose ci 
sembrano”), mentre la prima riguarda la capacità di rappresentare gli stati 
mentali  ai fini della pianificazione delle proprie azioni.
   Dal punto di vista metodologico, la coscienza cognitiva non è  problematica. 
Uno stato mentale è sempre  caratterizzato dalle sue relazioni funzionali con gli 
altri stati mentali, catturabili con gli strumenti del paradigma funzionalista. La 
coscienza fenomenica invece sembra essere una proprietà intrinseca dello stato 
stesso, irrelato con gli altri ( questo sembra evidenziato da esperimenti mentali 
come quello della stanza cinese).  La sperimentabilità “in prima persona” è un 
problema che riguarda qualsiasi spiegazione scientifica della  mente. Thomas 
Nagel nega che   in terza persona si possa cogliere il fenomeno della coscienza, e 
secondo   Colin McGinn  c’è un’impossibilità di principio per la mente umana  di 
comprendere il fenomeno della coscienza e a fortiori di spiegarlo. Sembra quindi 
sfuggire alle prese della scienza cognitiva.  Si fa valere al proposito  l’approccio 
del materialismo eliminativista  di Churchland , mentre secondo Daniel Dennett, 
oggi esponente di spicco del funzionalismo, quello che chiamiamo coscienza 
fenomenica è un coacervo di  fenomeni eterogenei che di fatto non esiste, anche 
se ciò rende difficile capire come sia sperimentabile in prima persona.
   
   Dunque il funzionalismo sembra nonostante tutto il paradigma dominante nella 
scienza cognitiva. Ma  ritorniamo a  valutare le   alternative proposte al modello 
della mente come macchina di Turing.  Negli  ultimi anni è nata una nuova 
nozione di computazione non­ Turing.
  Gödel  ha sostenuto  a più riprese che la tesi di Turing  secondo cui la mente  è 
rappresentabile come una TM è non conclusiva in quanto viene tralasciato il 
fatto che la mente non è un oggetto statico ma in costante sviluppo. La rilevanza 
attribuita alle osservazioni di Gödel dipende dall’indiscussa autorità di Gödel 
stesso.  Gödel coglie un aspetto di particolare rilevanza: nel comprendere e 
nell’usare termini astratti entrano in gioco termini sempre più astratti.  Sebbene a 
ogni stadio il numero dei termini astratti possa essere finito (e anche il numero 
degli stati mentali distinti, come asserisce Turing), nel corso dell’applicazione 
della procedura esso potrebbe convergere all’infinito:  qualcosa del genere 
sembra accadere nel processo di formazione di assiomi dell’infinito sempre più 
forti nella teoria degli insiemi o nella costruzione della gerarchia dei numeri 
transfiniti di Cantor.
      Gödel sembra ritenere che questa procedura mentale non sia una procedura 
meccanica, e non possa essere eseguita da un automa finito. Sembrano quindi 
che possano  esserci forme di intelligenza “non computazionale”, che vanno oltre 
le procedure meccaniche finite di Turing. Nello stesso tempo, come abbiamo già 
osservato a proposito di Lucas e Penrose, non si può negare un carattere 
algoritmico a procedure siffatte. 
Se   è   così   chiediamoci:
i. Come descrivere il carattere di queste forme di intelligenza non meccanica?
ii. I processi mentali che vanno oltre le procedure meccaniche presentano   una 
forma   di   calcolo   che   va   oltre   una   computazione   meccanica   effettiva?
iii.   Come   possiamo   rimpiazzare   la   dicotomia   “calcolo   meccanico   /non 
meccanico” con la descrizione di procedure di maggiore generalità che includano 
sia   la   computazione   meccanica   sia   quella   non   meccanica?
     Secondo Gödel  dunque alcune procedure mentali eseguite dalla mente umana 
non soddisfano le condizioni di finitezza e determinazione richieste dall’analisi 
di Turing sull’esecuzione di procedure meccaniche.   L’ipotesi di Gödel avvalora 
la   tesi   secondo   cui   ci   possono   essere   funzioni   calcolabili   ma   non   Turing­
computabili, il che farebbe pensare all’ abbandono della tesi di Church­Turing. 
In base a quant già detto, un primo esempio di tale sorta di funzioni sarebbe 
costituito da una funzione calcolabile dalla mente umana tramite una procedura 
che comporta l’uso di termini astratti in base al loro significato, funzione che non 
può   essere   computata   mediante   una   procedura   puramente   meccanica.   Se   si 
potesse esibire chiaramente una simile funzione, il risultato sosterrebbe una tesi 
anti­algoritmica e anti­meccanica sulla mente umana. Si tratterebbe infatti di una 
funzione che è definibile costruttivamente, computabile dalla mente umana, ma 
non   sarebbe   Turing­computabile.
    
    La tesi di Turing secondo cui  ciò che può essere calcolato da un essere umano 
idealizzato   che   segua   una   routine   di   passi   elementari   è   MT­computabile 
potrebbe essere affinata precisando la nozione stessa di calcolatore. Di qui la tesi 
di Robert Gandy secondo cui “ciò che può essere calcolato da un dispositivo 
meccanico deterministico è computabile”. Si tratta di una generalizzazione della 
tesi di Turing,     in cui i meccanismi considerati hanno limitazioni di carattere 
fisico: una condizione di finitezza (un limite inferiore) sulle dimensioni delle 
componenti elementari (o atomiche) e una condizione di località, cioè un limite 
superiore sulla velocità di propagazione dei segnali, la velocità della luce. Un 
passo oltre le macchine ideali di Gandy  sono i ‘calcolatori quantistici’. Sembra 
allora ragionevole spingersi fino alla tesi più generale secondo cui “ciò che può 
essere   calcolato   da  un   dispositivo   fisico   (deterministico   o  indeterministico)  è 
computabile”.
     Un calcolatore quantistico, essendo un dispositivo fisico in grado di eseguire 
algoritmi quantistici che non hanno analogo classico,   potrebbe rappresentare un 
nuovo modello di algoritmo.     Con questo ci spingiamo alle frontiere della 
ricerca, perché i calcolatori quantistici stanno  attualmente passando dalla  fase di 
progettazione  a quella concreta. Il vantaggio dei calcolatori quantistici è la loro 
impressionante velocità, dato che lavorano in parallelo e non linearmente. Il poco 
che si può dire circa il rapporto con la mente umana  si condensa in una 
congettura di Roger Penrose: “Il comportamento non computazionale del 
cervello umano potrebbe dipendere da fenomeni di tipo quantistico”.
 Restano aperti diversi interrogativi collaterali:
a)Un calcolatore quantistico è ancora una macchina di Turing? Secondo Deutsch, 
dal momento che tutti i processi paralleli possono essere in linea di principio 
linearizzati, non si fuoriesce comunque da quanto enunciato dalla tesi di Church­
Turing.
b) Ci sono aspetti non computazionali nel pensiero umano: si tratta di fenomeni 
non computazionali quantistici ?
c) Un sistema fisico quantistico è simulabile da un computer quantistico?
   Finora non abbiamo accennato al fatto che tra gli aspetti non computazionali 
del pensiero umano dobbiamo porre un aspetto che secondo alcuni è ciò che 
caratterizza   la   specie   umana   dalle   altre   specie   animali:   la  creatività.   Non   è 
azzardato dire che il tema della creatività è quello su cui tutte le   concezioni 
computazionaliste   della   mente   hanno   dovuto   misurarsi,   con   esiti   la   cui 
importanza  oggi non è facile da valutare..

§ 3 . La    centralità acquistata dalla scienza cognitiva è dovuta al fatto che l’ 
informatica è diventata la disciplina trainante nei confronti delle cosiddette 
scienze formali e in parte della stessa fisica.  Si può addirittura sostenere che 
l’informatica  ha  cambiato   il   volto  della stessa   filosofia.  Dobbiamo a  Paul 
Thagard la nascita della cosiddetta filosofia computazionale. 
     Da un lato, la presenza del WorldWideWeb è una novità di un certo rilievo 
perché     mette a disposizione degli utenti   un’enciclopedia illimitata, e   questo 
vale anche per tutto il materiale filosofico. Ogni filosofo americano oggi ha una 
sua pagina personale e mette in rete i propri lavori scavalcando  la distribuzione 
di materiale cartaceo. Ci sono   insegnamenti “virtuali” di filosofia ecc. Ma il 
problema è sapere qual è il contributo effettivo che l’informatica ha dato alla 
discussione filosofica. I computers, per quanto in sè siano perfettamente stupidi, 
sono programmati per fare cose che gli uomini non  possono fare, o almeno non 
possono fare con la stessa velocità e lo stesso grado di infallibilità. Prescindendo 
dalle   questioni   poste   dalla   scienza   cognitiva,   i   computers   simulano   la   mente 
umana   e   pertanto   presentano   elementi   nuovi   per   la   valutazione   di   classiche 
questioni filosofiche.
      Pensiamo   ad   alcuni   problemi   squisitamente   metodologici,   per   esempio   al 
problema dell’abduzione. Come si ricorderà, l’abduzione è un tipo di inferenza 
ampliativa     (un   tempo     confusa   con   l’induzione),   che   consente   in   passare 
dall’explanandum  all’explanans,   cioè   da   ciò   che   si   deve   spiegare   ai   dati 
esplicativi. I dati esplicativi possono essere leggi   ( come   le leggi di Keplero, 
che spiegano   le varie posizioni dei pianeti) oppure fatti singolari che nel caso 
più comune offrono una spiegazione causale dell'  explanandum    . L’ inferenza 
abduttiva è l’inferenza alla miglior spiegazione e spesso viene classificata in due 
tipi:   abduzione creativa (che crea le ipotesi esplicative) e abduzione selettiva 
(che seleziona tali ipotesi).  L' abduzione selettiva è basata, si ritiene, su metodi 
razionali dominabili: si sceglie l’ipotesi più economica, più informativa ecc. ,
oppure si applica quello strumento prezioso che è il teorema di Bayes, per cui 
conoscendo il valore   probabilistico di E dato C (Pr(E|C)), di E e di C si può 
calcolare la probabilità di C dato E Pr(C|E))  e la si può confrontare con  Pr(C'|
E), Pr(C”|E) ecc. con l'obiettivo di scegliendo l'ipotesi più probabile.
       L’abduzione creativa è stata in genere considerata intrattabile con metodi 
formali,   essendo   ritenuta  oggetto   della  psicologia della ricerca. Tuttavia        a 
partire dagli  anni 80 l’ingegneria ha offerto degli automi in grado di compiere 
scoperte,   o     almeno   di   simularle.   DENDRAL   (1980)   scopriva   la   struttura 
molecolare   del   campione     avendo   come  input    i   dati   spettroscopici   e 
METADENDRAL scopriva qualcosa di più: le regole che spiegano il processo di 
frammentazione dei campioni.   Il programma  BACON 1  ha ri­scoperto la terza 
legge   di   Keplero,   la   legge   di   Ohm   e   la   legge   di   Boyle   ­Mariotte   con   una 
procedura data­driven, cioè confrontando le formule con i dati empirici assunti 
come inputs.           
   Nei suddetti programmi l'elaborazione partiva comunque da un insieme di dati 
scelti dal programmatore. In effetti sembra ci sia una contraddizione nell’idea 
stessa   di   un   automa   creativo,   non   diversamente   da   come   sembra   ci   sia   una 
contraddizione   nell’idea   stessa   di   un   automa   che   produce   sequenze   casuali 
(random   sequences): come può esserci un insieme di regole per produrre una 
sequenza   che   per   definizione   è   irregolare?   Ma   la   cosiddetta   Intelligenza 
Artificiale  (AI)  non   poteva  non  raccogliere anche questa sfida. Già nel  1987 
venivano implementati programmi in grado di simulare le scoperte scientifiche 
usando come spazio di ricerca tutte le possibile formule esprimenti correlazioni 
tra   variabili   I   tentativi   in   questa   direzione   sono   ormai   oggetto   di       copiosa 
letteratura. Può essere utile ricordare qui che ci sono risultati recentissimi anche 
per le scoperte che ormai vengono spesso chiamate serendipiane.   Che significa? 
Una scoperta è serendipiana quando è stata ottenuta  in modo preterintenzionale, 
quando   cioè   il   ricercatore   era   alla   ricerca   di   qualcos’altro   o   addirittura   di 
qualcosa di opposto (v. scoperta della penicillina da parte di Pasteur). In questi 
casi   è   chiaro   che   la   scoperta   è   impossibile   senza   l’intuito   e   le   genialità   del 
ricercatore stesso.
       Campos e Figueiredo   (2002)   hanno realizzato un software, MAX, che per 
quanto non  crei  ipotesi serendipiane è uno strumento  per  la serendipidità. Per 
cogliere   il   punto,   si   pensi   alla   distinzione   tra   la   ricerca   di   informazione   in 
Internet   guidata   da   uno   scopo   preciso   ­   come   si   fa   normalmente   usando   un 
motore di ricerca ­ e il “navigare in Internet” a casaccio, che offre il terreno 
fertile   per   la   scoperta   serendipiana.   MAX   si   propone   di   offrire   stimoli 
interessanti e inattesi al ricercatore: il Modulo di Formulazione di Suggerimenti 
di MAX ha come scopo la ricerca deliberata di occasioni per il lateral thinking. 
Il  programma è in grado di definire una misura di somiglianza tra documenti, in 
modo   da   assemblare   documenti   divergenti.   Gli   autori   concludono   che   “fare 
programmi per la serendipità è possibile”. 
        Le   procedure   informatiche   entrano   in   gioco   a   diversi   stadi   della   ricerca 
abduttiva. In primo luogo, anche se non sono in grado di produrre un ventaglio di 
ipotesi che sia automaticamente candidato al successo, sono in grado di produrre 
combinatoriamente,   sulla   base   di   informazioni   predeterminate,   un   numero 
estremamente   alto   di   ipotesi,   e   in   ogni   caso   più   alto   di   quello   che   qualsiasi 
operatore umano è in grado di formulare. In secondo luogo sono in grado di 
individuare ipotesi logicamente equivalenti e di scegliere, a parità di contenuto, 
quelle sintatticamente più semplici semplificando il repertorio delle ipotesi di 
base. In terzo luogo, sono in grado di calcolare rapidamente le conseguenze delle 
ipotesi assunte e di eliminare le ipotesi in conflitto rispetto ai dati empirici con 
una velocità non consentita all’operatore umano. 
       Il ruolo della creatività umana non è stato finora messo in discussione dalla 
programmazione   abduttiva:   anche   perché   qualunque   programma   si   possa 
scrivere per il più sofisticato dei computers è, in ultima analisi, un prodotto della 
stessa creatività umana.

[BIBLIOGRAFIA ESSENZIALE IN ITALIANO
R.Cordeschi e V.Somenzi (a cura di) La filosofia degli automi, Boringhieri, 
Torino 1986
D. R  Hostadter, Gödel , Escher, Bach, Adelphi ,Milano, 1985
L.Magnani,  Ingegnerie della conoscenza. Introduzione alla filosofia 
computazionale,  Marcos y Marcos, Milano, 1997
D. Marconi, Filosofia e   scienza cognitiva, Laterza,Bari,2001.
S.Nannini,  L’anima   e   il   corpo.   Un’introduzione   storica   alla   filosofia   della 
mente, Laterza, Bari, 2002
P.Thagard, La mente. Introduzione alla scienza cognitiva (a cura di L. Magnani), 
Guerini, Milano, 1996]