Sei sulla pagina 1di 27

Linee di Ricerca

Maria Carla Galavotti

INTERPRETAZIONI DELLA PROBABILIT

Versione 1.0

Linee di Ricerca

SWIF - Sito Web Italiano per la Filosofia Rivista elettronica di filosofia - Registrazione n. ISSN 1126-4780

Linee di Ricerca SWIF Coordinamento Editoriale: Gian Maria Greco Supervisione Tecnica: Fabrizio Martina Supervisione: Luciano Floridi Redazione: Eva Franchino, Federica Scali.

AUTORE Maria Carla Galavotti [mariacarla.galavotti@unibo.it] professore ordinario di Filosofia della scienza presso la Facolt di Lettere e Filosofia dellUniversit di Bologna. Suoi temi di ricerca sono i fondamenti della probabilit, nonch la spiegazione, la previsione, la causalit, la natura dei modelli, con particolare attenzione per alcune discipline che sono approdate solo di recente allattenzione degli epistemologi, come leconomia, la medicina e il diritto. Ha al suo attivo circa 130 pubblicazioni, fra cui il recente volume Philosophical Introduction to Probability (Stanford, 2005) e le raccolte di saggi Stochastic Causality (Stanford, 2001, curato insieme con P. Suppes e D. Costantini), Observation and Experiment in the Natural and Social Sciences, (Kluwer, 2003), Cambridge and Vienna. Frank P. Ramsey and the Vienna Circle (Springer, 2006). La revisione editoriale di questo capitolo a cura di Gian Maria Greco.

LdR un e-book, inteso come numero speciale della rivista SWIF. edito da Luciano Floridi con il coordinamento editoriale di Gian Maria Greco e la supervisione tecnica di Fabrizio Martina. LdR - Linee di Ricerca il servizio di Bibliotec@SWIF finalizzato allaggiornamento filosofico. LdR un e-book in progress, in cui ciascun testo un capitolo autonomo. In esso l'autore o l'autrice, presupponendo solo un minimo di conoscenze di base, fornisce una visione panoramica e critica dei temi principali, dei problemi pi importanti, delle teorie pi significative e degli autori pi influenti, nell'ambito di una specifica area di ricerca della filosofia contemporanea attualmente in discussione e di notevole importanza. Il fine quello di fornire al pubblico italiano un'idea generale su quali sono gli argomenti di ricerca di maggior interesse nei vari settori della filosofia contemporanea oggi, con uno stile non-storico, accessibile ad un pubblico di filosofi non esperti nello specifico settore ma interessati ad essere aggiornati. Tutti i testi di Linee di Ricerca sono di propriet dei rispettivi autori. consentita la copia per uso esclusivamente personale. Sono consentite, inoltre, le citazioni a titolo di cronaca, studio, critica o recensione, purch accompagnate dall'idoneo riferimento bibliografico. Per ogni ulteriore uso del materiale presente nel sito, fatto divieto l'utilizzo senza il permesso del/degli autore/i. Per quanto non incluso nel testo qui sopra, si rimanda alle pi estese norme sui diritti dautore presenti sul sito Bibliotec@SIWF, www.swif.it/biblioteca/info_copy.php. Per citare un testo di Linee di Ricerca si consiglia di utilizzare la seguente notazione: AUTORE, Titolo, in L. Floridi (a cura di), Linee di Ricerca, SWIF, 2006, ISSN 1126-4780, p. X, www.swif.it/biblioteca/lr.

SWIF LINEE DI RICERCA LE INTERPRETAZIONI DELLA PROBABILIT MARIA CARLA GALAVOTTI Versione 1.0

1. CENNI STORICI La nozione di probabilit, cos come viene comunemente intesa oggigiorno, ha carattere quantitativo, e si esprime con un valore numerico compreso fra 0 e 1. Si suole far risalire questa nozione di probabilit alla met del Seicento, con gli studi dei matematici francesi Blaise Pascal e Pierre Fermat. Da allora, la probabilit cresciuta rapidamente, divenendo loggetto di una delle branche pi importanti della matematica, ed entrando a far parte dello studio dei fenomeni naturali e sociali. Accanto agli aspetti matematici e applicativi, la probabilit presenta un interesse filosofico, tanto che sulla sua interpretazione si acceso un vasto dibattito. Il problema dellinterpretazione della probabilit nasce dal fatto che essa presenta fin dai suoi esordi una peculiare duplicit di significato, potendo venire intesa tanto in senso epistemico, ossia come relativa alla conoscenza umana, quanto in senso empirico, ossia come caratteristica dei fenomeni casuali. Queste due accezioni hanno alimentato diverse scuole di pensiero, che hanno inteso privilegiare ora luna, ora laltra. Come si diceva, si suole far risalire la nozione moderna di probabilit alla met del diciassettesimo secolo, allorch il cavaliere di Mr, animatore della vita parigina al tempo del Re Sole, pose a Blaise Pascal alcuni problemi riguardanti i giochi di dadi, e Pascal coinvolse nella loro soluzione Pierre Fermat. Dalla corrispondenza fra i due, datata 1654, prese lavvio la nozione quantitativa di probabilit con riferimento allo studio, condotto con metodi matematici, dei fenomeni dallesito incerto. A differenza di altri matematici e scienziati, come Luca Pacioli, Gerolamo Cardano, Niccol Tartaglia e Galileo Galilei, che pure avevano gi ottenuto importanti risultati riguardo a problemi particolari, Pascal e Fermat
M. C. Galavotti, Interpretazioni della probabilit, in L. Floridi (a cura di), Linee di Ricerca, SWIF, 2006, pp. 936-962. Servizio Web Italiano per la Filosofia ISSN 1126-4780 www.swif.it/biblioteca/lr

Maria Carla Galavotti Interpretazioni della probabilit

939

prendevano spunto da problemi riguardanti i giochi dazzardo per andare alla ricerca di principi generali, applicabili a tutti i fenomeni regolati dal caso. Pi o meno negli stessi anni, lo scienziato olandese Christiaan Huygens si accinse egli stesso a studiare i problemi in questione, pubblicando due anni dopo il primo trattato sulla probabilit, dal titolo De ratiociniis in ludo aleae (1657). Con lopera di Pascal, Fermat e Huygens, e con i risultati ottenuti negli stessi anni da Leibniz, intento ad applicare la teoria combinatoria ai problemi legali, lo studio della probabilit ricevette nella seconda met del Seicento enorme impulso. Le sue propriet fondamentali, cos come la nozione di speranza matematica erano note; essa era gi stata applicata a fini statistici, e gi si profilavano altre applicazioni a scienze come la fisica e lastronomia. Importanti studi si concentrarono sulla probabilit diretta, ossia la probabilit che, a partire dalla conoscenza della legge di probabilit di una popolazione si assegna a un campione tratto da essa. Fondamentale a tale riguardo fu lopera di Jakob Bernoulli (16541705), che dimostr la legge debole dei grandi numeri, secondo la quale, ponendo uguale a p la probabilit di ottenere un certo risultato in un esperimento ripetibile, e uguale a m il numero dei successi ottenuti in n prove dellesperimento medesimo, la probabilit che il rapporto m/n ricada in un intervallo prefissato attorno al valore di p aumenta allaumentare di n, e diventa pari a 1 quando n tende allinfinito. Il teorema dimostrato da Bernoulli vale per quei processi (detti appunto bernoulliani) che prevedono due esiti dicotomici, come testa o croce, o anche presenza o assenza di un certo attributo, e si fonda sulla propriet dellindipendenza. Gli studi sulla probabilit diretta furono portati avanti da Pierre Rmond de Montmort (1678-1719), Abraham de Moivre (1667-1754), Pierre Simon de Laplace (1749-1827) e Simon Denis Poisson (1781-1840). In seguito vi contribuirono vari matematici di scuola russa, da Pafnuty Lvovich Chebyshev (1821-1894) e Andrej Andreevich Markov (18561922) a Andrej Nikolaevich Kolmogorov (1903-1987), nonch molti altri, fra cui il francese
Linee di Ricerca SWIF ISSN 1126-4780 www.swif.it/biblioteca/lr

L. Floridi (a cura di), Linee di Ricerca, SWIF, 2006

940

mile Borel (1871-1956) e litaliano Francesco Cantelli (1875-1966). Tornando alla famiglia Bernoulli, importanti studi furono compiuti anche da Nikolaus (1687-1759), che formul il famoso problema di San Pietroburgo, e Daniel (1700-1782), che affin la nozione di speranza matematica, gi analizzata da Huygens, e si dedic allo studio degli errori di misurazione, in seguito perfezionato da Carl Friedrich Gauss (17771855) con la formulazione della distribuzione degli errori di osservazione (distribuzione di Gauss). Nel diciottesimo secolo la probabilit inversa, consistente nel risalire dalle frequenze osservate alla probabilit, fu analizzata da Thomas Bayes (1701-1761), il quale dimostr il risultato noto appunto come regola di Bayes. Questa consente di valutare la probabilit delle ipotesi statistiche alla luce dei dati forniti dallesperienza: supponendo di poter assegnare, in base alla sola conoscenza di sfondo, una probabilit a un insieme di ipotesi statistiche, la regola indica come modificare tale assegnazione a seguito dellacquisizione di nuovi dati sperimentali, venendo cos a fornire un canone per procedere induttivamente mediante la probabilit. Unimportante scuola di pensiero, detta appunto bayesiana, considera oggi questa regola come la base di tutta linferenza statistica. Nel Settecento la probabilit fece il suo ingresso a pieno titolo anche nelle scienze morali, con il filosofo e scienziato Marie-Jean-Antoine-Nicolas Caritat, marchese di Condorcet (1743-1794), il cui nome legato allelaborazione dellaritmetica sociale, tesa a fornire una descrizione statistica della societ, da utilizzarsi a scopi di politica economica. Lidea che la probabilit potesse costituire un valido ausilio allo studio delluomo e della societ ebbe poi grande sviluppo nellOttocento, soprattutto con lopera di Adolphe Quetelet (1796-1874) e Francis Galton (1822-1911). Con questi autori riceveva grande impulso anche la statistica, che dallo studio delle medie, considerate strumento fondamentale per la descrizione e la comparazione dei fenomeni, si spost gradualmente verso lanalisi della variabilit dei fenomeni attorno ai
Linee di Ricerca SWIF ISSN 1126-4780 www.swif.it/biblioteca/lr

Maria Carla Galavotti Interpretazioni della probabilit

941

valori medi, approdando cos allo studio della correlazione, concernente la forza che caratterizza i legami fra fenomeni osservabili, e della regressione, concernente la forma di tali legami, rappresentabile mediante rette o curve di vario tipo. Questi studi, culminati con lopera di studiosi quali Karl Pearson (1857-1936), Raphael Weldon (1860-1906), William Sealy Gosset (1876-1937) e molti altri, vennero portati avanti parallelamente a un altro capitolo fondamentale della statistica contemporanea: i cosiddetti test di significativit, ossia metodi per valutare in quale misura le conseguenze delle ipotesi statistiche trovino riscontro nei dati sperimentali, e scartare le ipotesi che non reggono alla prova dei fatti. Alla metodologia per il controllo delle ipotesi contribu in modo decisivo anche Ronald Aylmer Fisher (1890-1962), il quale arricch la statistica anche di altri apporti decisivi, quali lanalisi della varianza e il disegno degli esperimenti. La metodologia per il controllo delle ipotesi statistiche venne poi estesa al confronto fra ipotesi alternative alla luce dei dati sperimentali, mediante i cosiddetti test dipotesi, da Egon Pearson (1895-1980), figlio di Karl, che vi lavor con Jerzy Neyman (1894-1981). Contestualmente agli sviluppi che abbiamo delineato, la probabilit ha

progressivamente preso piede nelle scienze naturali, penetrando sempre pi a fondo nella descrizione dei fenomeni fisici. Tappe fondamentali di tale processo furono: lanalisi del moto casuale delle particelle di polline sospese in un fluido, compiuta dal botanico scozzese Robert Brown (1773-1858), lelaborazione della teoria cinetica dei gas e la termodinamica da parte di scienziati quali James Clerk Maxwell (1831-1879) e Ludwig Boltzmann (18441906), la descrizione probabilistica del moto Browniano elaborata da Marian von Smoluchowski (1872-1917) e Albert Einstein (1879-1955), e infine lavvento della meccanica quantistica per opera, oltre che dello stesso Einstein, di Max Planck (1858-1947), Erwin Schrdinger (1887-1961), Louis de Broglie (1892-1987), Paul Dirac (1902-1984), Werner Heisenberg (1901-1976), Max Born (1882-1970), Niels Bohr (1885-1962) e molti altri.
Linee di Ricerca SWIF ISSN 1126-4780 www.swif.it/biblioteca/lr

L. Floridi (a cura di), Linee di Ricerca, SWIF, 2006

942

In estrema sintesi, si pu affermare che la probabilit entra nella scienza contemporanea in almeno tre modi: (1) come ingrediente della teoria degli errori di misurazione, (2) come strumento per lanalisi dei fenomeni complessi, che possono venire descritti soltanto facendo uso di valori medi, (3) come componente della descrizione dei fenomeni quantici, secondo quanto sancito dal principio dindeterminazione di Heisenberg, che afferma che, in tale ambito, il risultato di unosservazione conduce sempre e solo a enunciazioni di probabilit di eventi futuri.

2. LE LEGGI DELLA PROBABILIT 2.1. Le propriet matematiche della probabilit. Al fine di delineare brevemente le propriet matematiche della probabilit, che costituiscono loggetto del cosiddetto calcolo delle probabilit, bisogna distinguere fra probabilit primitive - ossia relative a fatti semplici, come domani piover oppure lanciando un dado uscir 3- e probabilit complesse - relative a fatti complessi, come piover domani e anche dopodomani, o lanciando un dado uscir 3 oppure 4- che si ricavano combinando le prime. Il calcolo delle probabilit indica come, a partire da probabilit semplici, si calcolano quelle complesse. Pertanto, la determinazione delle probabilit semplici risulta prioritaria a qualsiasi applicazione del calcolo. Va notato come tale determinazione costituisca unoperazione tuttaltro che banale, tanto che da essa nasce il dibattito sullinterpretazione della probabilit. Le varie scuole hanno infatti sostenuto modi diversi di determinare le probabilit semplici, chiamate anche iniziali, primitive, o a priori. Al fine di poter esporre le leggi della probabilit, adotteremo, per calcolare le probabilit primitive, il metodo detto classico, perch legato allinterpretazione classica della probabilit di Laplace. Esso pone la probabilit di un fenomeno pari al rapporto fra il numero dei casi favorevoli e il numero di quelli ugualmente possibili. Questa definizione si basa sul presupposto che sia possibile riconoscere e descrivere esaurientemente i casi
Linee di Ricerca SWIF ISSN 1126-4780 www.swif.it/biblioteca/lr

Maria Carla Galavotti Interpretazioni della probabilit

943

possibili, ossia lo spazio degli eventi associato al fenomeno di cui si valuta la probabilit, nonch sullassunzione che tali casi siano ugualmente possibili. Supponendo che, nel valutare se un fenomeno accadr o no, giudichiamo che tutte le circostanze possibili siano favorevoli, diremo che esso si verificher con certezza. Se invece tutte le circostanze sono giudicate sfavorevoli, si dir che certamente non accadr. Se, daltro canto, solo alcune circostanze appaiono favorevoli, la probabilit che esso si verifichi sar data dal rapporto fra il numero delle circostanze in suo favore e il numero delle circostanze possibili. Cos, se compro un biglietto di una lotteria di cui ne sono stati venduti 100.000, la probabilit che il mio biglietto sia quello vincente sar 1/100.000, se ne compro 2 sar 2/100.000; se li compro tutti la probabilit di vincere sar 100.000/100.000, cio 1 (in altri termini, avr la certezza di vincere); infine, non comprando nessun biglietto avr una probabilit di vincere pari a 0/100.000, cio 0 (in altri termini, avr la certezza di non vincere). In termini generali: la probabilit esprimibile tramite un numero reale compreso fra 0 e 1; designando con p (A) la probabilit di ottenere A, (ad esempio che lanciando un dado esca 3), avremo:

0 < p( A) < 1 Se A sta per un evento certo p( A) = 1

(1).

(2).

I valori estremi della probabilit corrispondono rispettivamente alla contraddizione, o impossibilit logica, e alla tautologia, o necessit logica. Sarebbe per un errore ritenere che non rappresentino valori genuini di probabilit: infatti non esprimono unimpossibilit di tipo fisico, o pratico. Cos, quando si disse che la centrale nucleare di Cernobyl aveva probabilit 0 di esplodere, ci stava a significare che levidenza disponibile non consentiva di assegnare una probabilit significativa ad un evento che, comunque, non era impossibile, come purtroppo si visto. Va sottolineato che la probabilit sempre relativa a unevidenza. Unimportante propriet della probabilit ladditivit, che si esprime mediante la legge della probabilit totale:
Linee di Ricerca SWIF ISSN 1126-4780 www.swif.it/biblioteca/lr

L. Floridi (a cura di), Linee di Ricerca, SWIF, 2006

944

p( A B) = p( A) + p( B)

(3)

dove il simbolo indica una disgiunzione (non esclusiva). Chiariamo che quando, nella presente esposizione, si parla per brevit di probabilit di eventi, sintende in realt riferirsi alla probabilit di proposizioni che descrivono eventi, o meglio il loro accadere o non accadere. La formula (3) vale nel caso in cui A e B siano eventi che si escludono a vicenda, ossia eventi la cui intersezione vuota, come i lanci di un dado, o di una moneta. In caso contrario, ladditivit dovr essere formulata in termini pi generali come segue:

p( A B) = p( A) + p ( B) p ( A B)
dove il simbolo sta per la congiunzione. Sarebbe questo il caso, per esempio, di due successive estrazioni da un mazzo di carte, senza reimmissione della carta estratta dopo il primo tiro. Le espressioni (1), (2) e (3), prese congiuntamente, esprimono le propriet fondamentali della probabilit, da cui sono derivabili tutte le altre. Introduciamo ora la nozione di probabilit subordinata, o condizionata, abitualmente rappresentata con p( B | A) da leggersi: la probabilit di B, posto che si sia verificato A. Se, dati due eventi A e B, vale p( A | B) = p( A) , e p( B | A) = p( B) , ossia il verificarsi delluno non influisce sulla probabilit del verificarsi dellaltro, i due eventi si dicono indipendenti. Sulla scorta di queste nozioni possibile definire la probabilit composta, ossia la probabilit che due eventi accadano in congiunzione. Essa si calcola mediante la regola di moltiplicazione, nel modo che segue: p ( A B ) = p ( A) p ( B | A) = p ( B ) p ( A | B ) . Nel caso di eventi indipendenti, vale la formulazione pi semplice: p ( A B) = p ( A) p ( B) . Si noti che la regola di moltiplicazione ci fornisce un modo di calcolare la probabilit condizionata. Da essa infatti deriva immediatamente che, se p ( B) > 0 ,

p( A | B) = p( A B) / p( B)
Anzich partire dalla probabilit assoluta, molti autori preferiscono prendere la nozione di
Linee di Ricerca SWIF ISSN 1126-4780 www.swif.it/biblioteca/lr

Maria Carla Galavotti Interpretazioni della probabilit

945

probabilit condizionata come primitiva. In tal caso, la probabilit assoluta viene definita in base a quella condizionata. Ci si fa abitualmente condizionando la probabilit a una tautologia. In simboli:

p( A | T )
dove T sta per una tautologia. Procedendo in questo modo si evidenzia il fatto, gi sottolineato, che la probabilit sempre relativa a uninformazione data. Riferire la probabilit a proposizioni che descrivono eventi ha reso possibile, nellesposizione che precede, usare gli operatori della disgiunzione e della congiunzione, come si fa in logica. Tuttavia, le propriet della probabilit possono essere introdotte anche con riferimento a uno spazio campionario, che indichiamo con S e definiamo come linsieme degli eventi semplici. In tal caso, un evento A associato con il sottoinsieme di S che include gli eventi semplici favorevoli al suo accadimento. Risulta allora appropriata ladozione dei concetti insiemistici, e in luogo della disgiunzione e della congiunzione si usano le operazioni di unione e intersezione fra insiemi. Anzich di eventi, pu poi essere utile parlare di variabili aleatorie, con riferimento alla quantit che caratterizza il risultato di una qualche operazione, o esperimento, soggetto a descrizione statistica. Lenumerazione dei possibili valori di una variabile casuale, insieme con la probabilit di ciascuno di essi, conduce alla distribuzione di probabilit della variabile data. Le distribuzioni di probabilit giocano un ruolo cruciale nellinferenza e nella metodologia statistica - basti pensare alluso estensivo che trovano distribuzioni come la binomiale (o bernoulliana), e la normale (o gaussiana). Le variabili casuali possono essere discrete o continue. Ladozione di variabili casuali continue, descriventi processi infiniti, richiede gli strumenti concettuali della teoria della misura, le cui applicazioni alla teoria delle probabilit furono studiate estensivamente nella prima met del ventesimo secolo da una folta schiera di autori, fra i quali mile Borel, Maurice Frchet, Harald Cramr, Andrej Andreevich Markov, Andrej Nikolaevich Kolmogorov, Richard von Mises, Joseph L. Doob e
Linee di Ricerca SWIF ISSN 1126-4780 www.swif.it/biblioteca/lr

L. Floridi (a cura di), Linee di Ricerca, SWIF, 2006

946

molti altri. Allinizio degli anni Trenta Kolmogorov elabor unassiomatizzazione della probabilit, che apport grande chiarezza negli studi sulla probabilit, separando nettamente le propriet formali della probabilit dalla sua interpretazione. Kolmogorov assumeva la probabilit come primitiva e, ai puri fini della trattazione formale, la definiva in termini insiemistici. Come tutte le teorie assiomatiche, anche la teoria delle probabilit di Kolmogorov aperta a uninfinit di interpretazioni, alle quali pone tuttavia dei limiti, fissando in modo chiaro le propriet matematiche della probabilit che devono comunque essere preservate. Detto altrimenti, gli assiomi di Kolmogorov non comportano ladozione di nessuna particolare interpretazione della probabilit, ma forniscono quei principi che ciascuna interpretazione deve rispettare, per poter rappresentare in modo corretto la nozione stessa di probabilit.

2.2. La regola di Bayes. Data la sua importanza, vale la pena di esporre schematicamente la regola di Bayes. Per comprenderla, utile osservare in via preliminare che la probabilit condizionata p ( A | B ) e la sua conversa p ( B | A) possono essere molto diverse. Il metodo bayesiano si concentra su due tipi particolari di probabilit condizionate, ossia la probabilit di unipotesi in relazione a unevidenza data (per esempio un certo risultato sperimentale) e la probabilit di tale evidenza, posto che valga lipotesi in questione. Indicando con H lipotesi e con E levidenza, si pu derivare la regola di Bayes dal principio della probabilit composta, nel modo che segue. Posto che p( H | E ) = p( H E ) / p( E ) poniamo E equivalente a [( E H ) ( E H )] , e sostituiamo questa espressione al posto di E nella formula che precede. Otteniamo cos:

Linee di Ricerca SWIF ISSN 1126-4780 www.swif.it/biblioteca/lr

Maria Carla Galavotti Interpretazioni della probabilit

947

p( H | E ) = p( H E ) / p[( E H ) ( E H )] . Applicando il principio della probabilit totale al denominatore abbiamo:

p( H | E ) = p( H E ) /[ p( E H ) + p ( E H )]
e applicando il principio delle probabilit composte tanto al nominatore quanto al denominatore:

p ( H | E ) = [ p( H ) p( E | H )] /[ p( H ) p ( E | H ) + p( H ) p( E | H )] .
Questa gi una possibile formulazione della regola di Bayes. Tuttavia, questo formulabile anche in modo pi generale, che non tenga conto esclusivamente di unipotesi e della sua negazione - ossia delle due alternative H and H - ma piuttosto di un insieme di ipotesi mutuamente esclusive ed esaustive H1, H2, ... , Hn. Con riferimento a una tale famiglia di ipotesi, possiamo formulare la regola come segue:
p ( H i | E ) = [ p( H i ) p( H i | E )] / p( H i ) p( E | H i )
i =1 n

dove p ( H1 | E ) rappresenta la probabilit finale - o a posteriori - di una certa ipotesi, data una certa evidenza. La regola di Bayes ci dice che questa probabilit proporzionale al prodotto della probabilit iniziale (o a priori) dellipotesi - calcolata in base alla sola informazione di sfondo, senza tener conto di E - e della cosiddetta verosimiglianza attribuita allevidenza E data lipotesi in questione, ossia posto che detta ipotesi valga. Abbiamo cos un metodo per valutare la probabilit di unipotesi alla luce dellevidenza sperimentale. Lapplicazione del metodo di Bayes presuppone lassegnazione delle probabilit iniziali. Come tutti i risultati del calcolo delle probabilit, la regola in quanto tale non dice nulla in proposito, e proprio su questo si acceso il dibattito: i bayesiani si sono divisi fra oggettivisti e soggettivisti. Mentre i primi ritengono che vi siano criteri oggettivi che impongono la scelta delle probabilit iniziali, i secondi lasciano libert di scelta.

3. LE INTERPRETAZIONI DELLA PROBABILIT


Linee di Ricerca SWIF ISSN 1126-4780 www.swif.it/biblioteca/lr

L. Floridi (a cura di), Linee di Ricerca, SWIF, 2006

948

3.1. Linterpretazione classica. Linterpretazione detta classica della probabilit fu elaborata da Pierre Simon de Laplace (1749-1827), che le dedic la Thorie analytique des probabilits (1812) e lEssai philosophique sur les probabilits (1814). Matematico, fisico e astronomo, Laplace si accinse a unopera di sistematizzazione e affinamento della meccanica newtoniana, avvalendosi degli sviluppi settecenteschi del calcolo analitico. La meccanica newtoniana assunse per Laplace la portata di un paradigma conoscitivo capace di rappresentare il mondo in modo certo e incontrovertibile. Caratteristica fondamentale di tale paradigma il determinismo, secondo cui la storia del mondo una lunga catena causale, dove ogni stato determinato da quello che lo precede e determina il successivo. Luomo non in grado di cogliere tutti gli aspetti della rete causale del mondo; solo unIntelligenza superiore, non soggetta alla limitatezza della mente umana, potrebbe coglierne tutti i particolari. Di tale Intelligenza la mente umana non pu che essere una copia sbiadita, tuttavia i principi della meccanica newtoniana, unitamente agli strumenti dellanalisi matematica, indicano alluomo la strada da percorrere per ottenere una conoscenza del mondo sempre pi raffinata. In questo percorso, gli di aiuto la probabilit. Resa necessaria dallignoranza dei fenomeni nella loro completezza, la probabilit si basa sulle conoscenze disponibili, ed sempre relativa a queste ultime. Convinto che quasi tutte le conoscenze umane siano soltanto probabili, Laplace considera la probabilit uno strumento di conoscenza imprescindibile, e fonda su di essa induzione e analogia, che costituiscono i metodi pi importanti per acquisire conoscenza. Nel quadro di questimpostazione squisitamente epistemica, Laplace definisce la probabilit come il rapporto fra il numero dei casi favorevoli rispetto allaccadimento di un evento e il numero dei casi ugualmente possibili. Questa definizione rispecchia in modo naturale la sua idea di probabilit come determinata in parte dalla conoscenza e in parte dallignoranza: se, ad esempio, sappiamo che su tre eventi se ne verificher uno, ma non siamo a conoscenza di alcun motivo che ci porti a ritenere che uno debba accadere a
Linee di Ricerca SWIF ISSN 1126-4780 www.swif.it/biblioteca/lr

Maria Carla Galavotti Interpretazioni della probabilit

949

preferenza degli altri, saremo portati a ritenerli ugualmente possibili, e a rapportare ad essi quellunico caso che destinato a verificarsi, anche se non sappiamo con precisione quale, fra i tre possibili, esso sia. La definizione laplaciana della probabilit dunque esplicitamente basata sulla presupposizione delluguale possibilit dei casi presi in esame. Detto altrimenti: laddove non vi sia ragione di assegnare le possibilit in modo diverso, queste saranno valutate uguali: da ci la diffusa denominazione di principio di ragione insufficiente data allassunzione di equipossibilit, che viene a costituire il fondamento dellimpostazione laplaciana. Ai fini della determinazione del valore di probabilit, il giudizio di equipossibilit si traduce nellattribuzione di uguale probabilit alle alternative possibili (distribuzione iniziale uniforme). Nel dibattito che seguir, questo costituir laspetto pi discusso della teoria di Laplace. Su questa base, Laplace sviluppa il calcolo delle probabilit, nonch i principi fondamentali dinferenza. A tale riguardo, fondamentale importanza attribuita alla regola di Bayes, che Laplace combina con la distribuzione uniforme, cosa che oggi non si fa pi. Seguendo questo metodo, egli formula la regola di successione, con cui si determina la probabilit di un evento non osservato, in base allosservazione di un certo numero di casi dello stesso tipo, posto che possano darsi solo due alternative, e che gli eventi siano indipendenti. La regola afferma che, se n il numero dei casi positivi e m quello dei casi negativi, la probabilit che il prossimo caso sia positivo pari a (n + 1 / n + m +2). Se non si sono osservati casi negativi, la formula si riduce a (n + 1 / n +2). Laplace fu convinto assertore dellutilit e indispensabilit della probabilit in tutti i campi del sapere: dai giochi dazzardo alle scienze naturali e morali. La sua opera ebbe grande influenza, e domin la letteratura per decenni, sollevando altres molte critiche. I frequentisti rifiutarono il punto di vista epistemico per abbracciare una visione empirica della probabilit, in base alla constatazione che in molti casi, analizzati tanto dalla scienza quanto nella vita di ogni giorno, impossibile individuare linsieme dei casi possibili rispetto
Linee di Ricerca SWIF ISSN 1126-4780 www.swif.it/biblioteca/lr

L. Floridi (a cura di), Linee di Ricerca, SWIF, 2006

950

allaccadimento di un fenomeno, il che rende inapplicabile la definizione classica. Essi proposero pertanto di abbandonarla e sostituirla con il calcolo delle frequenze. Anche coloro che seguirono Laplace sulla strada della concezione epistemica della probabilit, come logicisti e soggettivisti, criticarono la sua definizione, e in particolare lassunzione di equiprobabilit, che videro come un impedimento a unosservazione spregiudicata dei fenomeni della natura e a un reale apprendimento dallesperienza. Va aggiunto che, quando venga applicata al di fuori dellambito dei giochi dazzardo, o comunque di fenomeni ad essi assimilabili nella struttura, la definizione classica d luogo a problemi applicativi del tipo dei cosiddetti paradossi di Bertrand, che sorgono in relazione a quei fenomeni che ammettono un numero infinito di possibilit.

3.2. Il frequentismo. La teoria frequentista si form nellOttocento con le opere di Robert Leslie Ellis (1817-1859) e John Venn (1834-1923), e ricevette grande impulso con gli studi di Richard von Mises (1883-1953) e Hans Reichenbach (1891-1953). Essa ritiene che la probabilit sia una caratteristica dei fenomeni empirici, che si esprime attraverso la frequenza con cui essi si presentano allosservazione. Suo oggetto sono dunque i fenomeni ripetibili, considerati attraverso landamento casuale, quindi imprevedibile, delle serie cui danno luogo. Dal comportamento di tali serie si traggono dei rapporti di frequenza, che tendono a stabilizzarsi allaumentare del numero dei casi osservati. Il frequentista definisce la probabilit proprio in base a tali frequenze, ponendone il valore pari al limite cui tende la frequenza di un dato attributo, osservata in relazione alla porzione iniziale (campione) di una serie idealmente prolungabile allinfinito. In altri termini, posto che la frequenza relativa di un attributo, ossia quella riscontrata nel campione, sia pari a m/n, dove m sta per il numero dei casi favorevoli e n per il numero delle prove effettuate, si pone la probabilit dellattributo stesso entro la serie uguale al limite cui tende tale frequenza
Linee di Ricerca SWIF ISSN 1126-4780 www.swif.it/biblioteca/lr

Maria Carla Galavotti Interpretazioni della probabilit

951

quando n 6 4. Secondo von Mises le successioni probabilistiche - che egli chiama collettivi - devono soddisfare due requisiti: (1) devono essere infinite e tendere a un limite; (2) devono essere casuali. La casualit definita in modo rigoroso, in base al criterio operativo della scelta di posto. Si immagini di avere una successione di oggetti che presentano un determinato attributo con una certa frequenza relativa. Si supponga poi di estrarre, secondo una regola matematica prefissata, dalla successione in esame una sottosuccessione infinita. Questa potr dirsi ottenuta mediante scelta di posto se la scelta delln-esimo elemento dalla successione originaria dipende dal numero n, ovvero dal numero dordine che tale elemento occupa nella successione, ma non dallattributo che caratterizza ln-esimo elemento, o qualsiasi elemento seguente. Ogni scelta di posto definita da una regola, che stabilisce in modo non ambiguo, per ciascun elemento della successione, se debba entrare a far parte della sottosuccessione oppure no. Von Mises fa lesempio della sottosuccessione formata scegliendo, nella successione costituita dai lanci di una roulette, tutti quelli che nella successione originaria corrispondono a un numero dordine pari a una potenza di due. Un collettivo risulta casuale quando i valori limite delle frequenze relative dei suoi attributi rimangono inalterati in tutte le sottosuccessioni che possono essere ricavate da esso mediante scelte di posto. Nella visione di von Mises la casualit assume un ruolo prioritario rispetto alla probabilit, della quale al contempo presupposto teorico e base empirica, in virt del carattere operativo che la contraddistingue. importante osservare che per von Mises, e pi in generale per il frequentismo, la probabilit si applica esclusivamente a fenomeni che si presentano su larga scala, mentre non si pu parlare di probabilit di eventi singoli. Questo segna il limite dellimpostazione frequentista, bench indubbiamente vi siano ampi settori delle scienze naturali, come la genetica delle popolazioni e la teoria cinetica dei gas, in cui la probabilit viene associata ai fenomeni di massa. Il frequentismo di von Mises solleva problemi di applicabilit, limitando luso della
Linee di Ricerca SWIF ISSN 1126-4780 www.swif.it/biblioteca/lr

L. Floridi (a cura di), Linee di Ricerca, SWIF, 2006

952

probabilit ai collettivi infiniti, nonch casuali in senso non ristretto, ossia relativamente a tutte le possibili scelte di posto che possono operarsi su di essi. Lesigenza di assicurare al frequentismo una pi vasta applicabilit stata particolarmente sentita da Hans Reichenbach, il quale ha ne ha elaborato una versione pi duttile, destinata ad essere applicata a successioni solo potenzialmente infinite, e che possono dirsi casuali in relazione a una classe ristretta di scelte di posto. Reichenbach ha affrontato il problema del caso singolo, tentando una soluzione consistente nellassegnare il caso singolo a una classe di riferimento, e nel trasferire poi ad esso il valore del limite della frequenza calcolato in relazione a tale classe. In questo modo, al caso singolo viene attribuito un peso. La scelta della classe di riferimento deve rispondere a un criterio di omogeneit, che opera in base alla nozione di rilevanza statistica. In sostanza, si richiede che il caso in esame venga riferito alla classe contenente il maggior numero possibile di casi simili. Un procedimento siffatto comunemente usato in statistica, dove la scelta della classe di riferimento cruciale ai fini dellapplicazione corretta di una vasta gamma di metodologie. Come sanno bene gli statistici, la scelta della classe di riferimento pu rivelarsi assai difficile, ed appare molto arduo, se non impossibile, assoggettarla a canoni univocamente definiti. Per questo la soluzione di Reichenbach al problema del caso singolo desta qualche perplessit. Come per von Mises, anche per Reichenbach la probabilit costituisce il fondamento della conoscenza, e in particolare della scienza, che si apre anche allindeterminismo. Egli elabora unepistemologia probabilistica su base induttiva, incentrata sulla distinzione fra due livelli di conoscenza. Il primo livello, detto della conoscenza primitiva, caratterizzato dalla mancanza dinformazione circa le probabilit primitive, che possono essere determinate con quella che Reichenbach chiama regola dinduzione per enumerazione, o anche pi semplicemente regola dinduzione, che rispecchia il canone frequentista secondo cui il valore della probabilit si ottiene come limite della frequenza relativa. Al secondo livello, detto della
Linee di Ricerca SWIF ISSN 1126-4780 www.swif.it/biblioteca/lr

Maria Carla Galavotti Interpretazioni della probabilit

953

conoscenza avanzata, si procede al calcolo delle probabilit complesse in base a quelle primitive. In questo ambito, Reichenbach attribuisce cruciale importanza alla regola di Bayes. Indicando nel calcolo delle frequenze il canone per la determinazione delle probabilit iniziali, Reichenbach configura un bayesianesimo oggettivistico su base frequentista.

3.3. Linterpretazione propensionista. Per ovviare ai problemi del frequentismo, Karl Raimund Popper (1902-1994) ide uninterpretazione della probabilit specificamente pensata per dare un senso alle probabilit riferite al caso singolo incontrate in meccanica quantistica. Si tratta dellinterpretazione propensionista della probabilit, che egli avanz verso la met degli anni Cinquanta, per poi riprenderla nel corso degli anni Ottanta. Nella sua primitiva formulazione, la teoria propensionista si configura come una variante del frequentismo, rispondente allidea di prendere come primitiva non gi la frequenza, bens la probabilit del risultato di ogni singolo esperimento, considerato in relazione alle condizioni di contorno. La probabilit viene cos a configurarsi come una propriet dellapparato sperimentale, inteso in senso lato come il contesto nel quale ha luogo lesperimento. Per Popper, le propensit sono fisicamente reali come le forze newtoniane, e al pari di queste ultime hanno carattere teorico e non sono direttamente osservabili. Esse generano delle frequenze, attraverso le quali si pu risalire alla propensit. Secondo limpostazione deduttivistica della metodologia popperiana, lattribuzione di propensit rappresenta una congettura, che deve essere sottoposta a controllo sperimentale. Egli distingue fra enunciati probabilistici (esprimenti propensit) e enunciati statistici, e chiarisce che i primi si riferiscono a frequenze congetturali in successioni virtuali, mentre i secondi si riferiscono a frequenze osservate in successioni reali. Il controllo sperimentale delle attribuzioni di propensit avviene attraverso il confronto fra questi due tipi di enunciati. Lidea di propensit venuta assumendo crescente importanza nel pensiero di Popper,
Linee di Ricerca SWIF ISSN 1126-4780 www.swif.it/biblioteca/lr

L. Floridi (a cura di), Linee di Ricerca, SWIF, 2006

954

il quale negli ultimi anni della sua vita ne ha fatto il fondamento di un programma metafisico volto a ricomporre entro un quadro unitario, di stampo fortemente realista e indeterminista, ogni genere di tendenze causali operanti nel mondo, dalla microfisica allazione umana. La teoria della propensit ha suscitato notevole interesse fra i filosofi della scienza. Diversi autori, fra cui David Miller, Hugh Mellor, James Fetzer, Ronald Giere, Isaac Levi e Donald Gillies, hanno guardato con favore allinterpretazione propensionista, che hanno ripreso e modificato in vario modo.

3.4. Il logicismo. Secondo linterpretazione logica la probabilit ha significato epistemico, e viene definita come una relazione logica fra enunciati esprimenti unipotesi, nonch un insieme di dati sperimentali portati a supporto di tale ipotesi. Il pi illustre precursore di tale interpretazione stato Gottfried Wilhelm Leibniz (1646-1716), seguito pi tardi da Bernard Bolzano (17811848). Nel corso dellOttocento, il logicismo prese vigore in Inghilterra con gli studi di George Boole (1815-1864), Stanley Jevons (1835-1882) e Augustus De Morgan (18061871), per venir ripreso da William Ernest Johnson (1858-1931), e da John Maynard Keynes (1883-1946). In aperto contrasto con lapproccio empiristico di Venn, Keynes nel suo Treatise on Probability (1921) abbraccia una prospettiva epistemica, e vede la probabilit come oggetto della logica, considerata come la scienza della credenza razionale, rispetto alla quale la certezza si pone come caso limite. Esprimendo una relazione logica, la probabilit assume carattere oggettivo. Le relazioni su cui si fonda la probabilit vengono assunte da Keynes come concetti primitivi, aventi carattere sostanzialmente intuitivo. Dallaccento posto sullintuizione deriva uno degli aspetti pi controversi della teoria di Keynes, ossia la convinzione che le relazioni probabilistiche non siano sempre misurabili quantitativamente, e neppure ordinabili nel senso di pi, o meno, probabile di. Ne deriva
Linee di Ricerca SWIF ISSN 1126-4780 www.swif.it/biblioteca/lr

Maria Carla Galavotti Interpretazioni della probabilit

955

che si danno relazioni probabilistiche a cui non applicabile il calcolo delle probabilit. Ci non preoccupa Keynes, il quale diffida di una trattazione eccessivamente formale della probabilit, e si oppone allapplicazione meccanica di regole alle valutazioni probabilistiche. In questo spirito egli critica luso generalizzato del principio dindifferenza laplaciano, nonch il principio dinduzione, inteso come metodo automatico di accumulazione di conoscenze in base allosservazione di una quantit di casi. Egli particolarmente diffidente nei confronti dellinferenza su base induttiva di principi generali, come le leggi causali, o il principio delluniformit della natura. In contrasto con un metodo basato sul mero computo delle osservazioni ripetute, Keynes insiste sul ruolo dellanalogia, nella convinzione che lanalisi delle somiglianze e dissomiglianze fra gli eventi considerati debba precedere lanalisi quantitativa. Indubbio merito di Keynes laver posto laccento sulla questione del peso degli argomenti. Questultimo varia, come la probabilit, a seconda dellammontare dellevidenza disponibile. Mentre per la probabilit dipende dal rapporto fra levidenza favorevole e quella contraria, il peso aumenta allaumentare dellevidenza presa nel suo complesso, cio come la somma dellevidenza positiva e di quella contraria, purch naturalmente levidenza in questione sia rilevante. Il problema del peso degli argomenti venne in seguito ripreso dagli autori di ispirazione soggettivista, in particolare Ramsey, de Finetti e Savage, secondo le linee dellimpostazione bayesiana. Linterpretazione logica della probabilit ha incontrato un certo favore anche nellambito dellempirismo logico, in particolare con lopera di Friedrich Waismann (18961959), che, in analogia con la relazione di implicazione che vale in logica deduttiva, vede la probabilit come una sorta dimplicazione parziale. Anche Ludwig Wittgenstein (1889-1951) adotta nel Tractatus la prospettiva logicista, pur senza pervenire a sviluppi importanti. Waismann esercit uninfluenza diretta su Rudolf Carnap (1891-1970), autore del monumentale Logical Foundations of Probability (1950), rispondente allintento di elaborare
Linee di Ricerca SWIF ISSN 1126-4780 www.swif.it/biblioteca/lr

L. Floridi (a cura di), Linee di Ricerca, SWIF, 2006

956

una logica induttiva, avvalendosi degli strumenti della logica simbolica e della semantica formale. Dopo aver ammesso due concetti di probabilit: un concetto logico che chiama probabilit1 e un concetto di tipo frequentista che chiama probabilit2, cui riconosce pari legittimit, Carnap analizza la probabilit logica, intesa come grado di conferma, esprimente il supporto induttivo a favore di unipotesi, assegnato in base allevidenza disponibile. Alla valutazione del grado di conferma si giunge in base allanalisi del contenuto semantico delle proposizioni coinvolte, a sua volta definito nei termini di quelle che Carnap chiama descrizioni di stato, ossia delle descrizioni formalizzate degli stati di fatto possibili rispetto a una certa ipotesi. Ci rende possibile associare al contenuto di una proposizione una misura, ed proprio il comportamento di queste misure ad essere loggetto specifico della logica induttiva carnapiana. La probabilit2 si configura invece come fattuale ed empirica, poich parla dei fenomeni della natura, e si basa sullosservazione dei fatti rilevanti. Pur non potendo dirsi oggettiva nello stesso senso della probabilit2, che contiene un riferimento diretto al piano empirico, anche la probabilit1 da intendersi come oggettiva. Tuttavia, mentre la verit di un enunciato di probabilit logica di tipo analitico, quella di un enunciato di probabilit2 di tipo empirico. Carnap convinto che esistano dei valori di probabilit corretti, almeno in via di principio conoscibili e misurabili. Ci lo costringe a imporre alla logica induttiva un requisito metodologico, che chiama di evidenza totale, in base al quale lapplicazione della logica induttiva in un dato contesto conoscitivo deve basarsi su tutta levidenza rilevante disponibile al suo interno. Questo requisito ha fatto molto discutere, poich appare chiaro che, come si gi osservato a proposito della nozione di omogeneit della classe di riferimento di Reichenbach, non si pu mai essere certi che tutti gli elementi rilevanti rispetto a un dato evento, di cui si vuole valutare la probabilit, siano stati presi in considerazione. La logica induttiva, o logica dei gradi di credenza razionale, ha il compito di guidarci
Linee di Ricerca SWIF ISSN 1126-4780 www.swif.it/biblioteca/lr

Maria Carla Galavotti Interpretazioni della probabilit

957

verso ladozione di quei valori di credenza che alla luce dellinformazione disponibile risultano corretti, ed quindi razionale assumere. A tal fine, le funzioni di conferma (o di credenza razionale) devono rispondere a diverse condizioni di razionalit che impongono loro restrizioni di vario tipo. Carnap definisce linsieme dei metodi induttivi come un continuo che va da funzioni che rappresentano assegnazioni di probabilit puramente empiriche a funzioni puramente aprioristiche. A un estremo di tale continuo si trova infatti una funzione (chiamata da Carnap regola diretta) che corrisponde allassegnazione di probabilit basata sulle sole frequenze osservate. Allaltro estremo del continuo si trova una funzione basata sullassunzione di equidistribuzione della probabilit. Un posto privilegiato nel continuo carnapiano spetta alle funzioni scambiabili (chiamate simmetriche da Carnap), ossia invarianti rispetto a qualunque permutazione finita degli individui considerati. Nel corso degli anni Sessanta Carnap interpreta la probabilit1 in termini di quoziente equo di scommessa, e contestualmente considera la logica induttiva come una teoria della decisione, i cui principi fondamentali trovano una giustificazione in termini di coerenza. Tale appello alla nozione di coerenza ha alimentato la convinzione che nei suoi ultimi scritti Carnap si sia avvicinato al soggettivismo. Va per tenuto presente che Carnap ha sempre ribadito decisamente che la sua nozione di probabilit concerne la credenza di un agente perfettamente razionale, non gi la credenza intrattenuta da un soggetto qualsiasi, prendendo cos le distanze dal soggettivismo. Sostenitore dellinterpretazione logica della probabilit fu anche il geofisico Harold Jeffreys (1891-1989), che diede vita a unepistemologia genuinamente probabilistica, di stampo bayesiano, che include elementi affini al soggettivismo, come la convinzione che non soltanto il processo di acquisizione della conoscenza, ma le nozioni stesse di oggettivit e realt siano basate in ultima istanza sulla probabilit, e lidea che levidenza empirica possa essere incerta. In opposizione a quanto sostenuto dai soggettivisti, tuttavia, Jeffreys si attest sulla convinzione, tipicamente logicista, che alla luce di una data evidenza esista un unico
Linee di Ricerca SWIF ISSN 1126-4780 www.swif.it/biblioteca/lr

L. Floridi (a cura di), Linee di Ricerca, SWIF, 2006

958

valore di probabilit che possa dirsi corretto.

3.5. Il soggettivismo. Anticipata verso la met dellOttocento da William Donkin (1814-1869), professore di astronomia alluniversit di Oxford, linterpretazione soggettiva fu avanzata in aperto contrasto con la teoria di Keynes da mile Borel (1871-1956), per venir calata in veste definitiva pi o meno contemporaneamente da Ramsey e da de Finetti nella seconda met degli anni Venti. Allepoca della morte, avvenuta poco prima di compiere 27 anni, Frank Plumpton Ramsey (1903-1930) aveva gi contribuito in modo decisivo alla logica e ai fondamenti della matematica, alleconomia, alla filosofia e, cosa che qui ci interessa pi da vicino, alla probabilit. In una conferenza dal titolo Truth and Probability, tenuta nel 1926 al Moral Sciences Club di Cambridge e pubblicata postuma insieme con altri scritti in Foundations of Mathematics (1931), egli getta le basi della moderna concezione soggettiva della probabilit. Ramsey sostituisce le oscure relazioni logiche poste da Keynes alla base della probabilit con le opinioni che il soggetto nutre circa laccadimento degli eventi. Egli definisce la probabilit come grado di credenza soggettivo, dotandola di un fondamento psicologico, anzich logico, e postula che le credenze siano misurabili. Associa poi a questa nozione di probabilit una definizione operativa che ne fornisce una misura, richiamandosi a tal fine al metodo delle scommesse - studiato fin dal Seicento - che consiste nel misurare il grado di probabilit assegnato da un certo individuo a un evento in base alla quota alla quale egli sarebbe disposto ad accettare di scommettere una certa somma sul suo accadimento. Supponendo, ad esempio, che sia pronto a scommettere 1 contro 5 che lanciando un dado esca il 3, ci star a indicare che il suo grado di fiducia pari a 1/(1+5), cio 1/6. Ramsey giudica questo metodo sostanzialmente corretto, ma minato da difficolt ben note, quali la maggiore o minore propensione del soggetto a scommettere, nonch il problema dellutilit
Linee di Ricerca SWIF ISSN 1126-4780 www.swif.it/biblioteca/lr

Maria Carla Galavotti Interpretazioni della probabilit

959

marginale del denaro, che varia a seconda della ricchezza posseduta. Per ovviare a tali inconvenienti, egli adotta una nozione pi generale di preferenza, ispirata allidea che le azioni umane sono per loro natura dirette a massimizzare la probabilit di ottenere dei beni, che si suppongono misurabili e addizionabili. Nel perseguire lottimizzazione di siffatti beni gli uomini agiscono in base alle loro credenze, guidati dal principio della speranza matematica, che Ramsey considera una legge fondamentale della psicologia. Secondo queste linee, Ramsey definisce una misura del grado di credenza con riferimento diretto alle preferenze dellindividuo, determinate in base alla sua speranza di ottenere certi beni, aventi valore relativo perch definiti in relazione a un insieme di alternative. Egli esprime poi le leggi della probabilit in termini di gradi di credenza, e indica nella coerenza il criterio unico cui ottemperare, per evitare di incorrere in una perdita sicura. La coerenza viene a costituire il nesso fondamentale che lega probabilit e gradi di credenza, nel senso che sistemi di credenze coerenti soddisfano le usuali leggi delle probabilit additive. Il rapporto fra coerenza e calcolo delle probabilit in effetti ancora pi stretto, poich risulta possibile derivare le leggi della probabilit dalla coerenza. La nozione di coerenza viene cos a costituire il pilastro del soggettivismo, garantendone ladeguatezza come interpretazione della probabilit. Con Bruno de Finetti (1906-1985) linterpretazione soggettiva compie il passo decisivo, venendo dotata di un metodo che le consente immediata applicabilit allinferenza statistica. Tale metodo, espresso nel saggio La prvision: ses lois logiques, ses sources subjectives (1937), consiste nelladozione del metodo bayesiano, in combinazione con la nozione di scambiabilit. Prendendo una successione di n osservazioni, in h delle quali stata riscontrata la presenza di un certo attributo, la successione pu dirsi scambiabile se si decide che lordine col quale si presenta lattributo in oggetto non influisce sulla valutazione della probabilit, che viene quindi a dipendere solo dal numero dei casi positivi e negativi che si osservano. La scambiabilit si configura come una propriet pi debole dellindipendenza, e
Linee di Ricerca SWIF ISSN 1126-4780 www.swif.it/biblioteca/lr

L. Floridi (a cura di), Linee di Ricerca, SWIF, 2006

960

consente un apprendimento pi rapido dallesperienza. Usata in combinazione con la regola di Bayes, essa fornisce un modello di come sia possibile procedere induttivamente, in modo da rendere possibile linterazione fra probabilit soggettiva e frequenze osservate. Con il cosiddetto teorema di rappresentazione de Finetti dimostra infatti che la scambiabilit porta a una convergenza fra i valori delle probabilit soggettive e quelli delle frequenze osservate. Entro il bayesianesimo soggettivista di de Finetti lassegnazione delle probabilit iniziali non soggetta ad alcuna restrizione, configurandosi piuttosto come il risultato di un procedimento complesso, largamente dipendente dal contesto in cui si colloca, che investe fra laltro una quantit di elementi di stampo psicologico. In altri termini, le probabilit a priori vengono assegnate secondo le convinzioni dellindividuo. Ci risponde a un modo di guardare alla probabilit che il nostro autore definisce elastico, e che contrappone allatteggiamento che egli definisce rigido, tipico di coloro che abbracciano una prospettiva oggettivistica. Mentre lapproccio rigido ncora la probabilit a una funzione univocamente determinata, lapproccio elastico, ritenendo ugualmente ammissibili tutte le funzioni coerenti, non impone criteri predefiniti per la scelta di una di tali funzioni. In nome di questa convinzione, de Finetti critica tutte le altre interpretazioni della probabilit, ivi compreso il logicismo, che, come gi sottolineato, ritiene che vi siano valori di probabilit corretti, cui si giunge mediante lapplicazione di criteri univocamente determinati.

4. CONCLUSIONE Le interpretazioni della probabilit delineate sopra corrispondono a diverse scuole di pensiero, che annoverano sostenitori fra statistici, scienziati e filosofi. Il frequentismo rappresenta a tuttoggi una tendenza piuttosto accreditata fra statistici e scienziati naturali, nonostante le difficolt incontrate nellambito della meccanica quantistica. Linterpretazione propensionista riscuote vasti consensi soprattutto presso i filosofi della scienza. Fra le interpretazioni di stampo epistemico, la visione classica appare tramontata, soprattutto a
Linee di Ricerca SWIF ISSN 1126-4780 www.swif.it/biblioteca/lr

Maria Carla Galavotti Interpretazioni della probabilit

961

causa del determinismo che la sottende. Il logicismo, pur annoverando ancora un certo numero di sostenitori, ha nel complesso ceduto il passo al soggettivismo, che gode di notevole popolarit, specie fra statistici, ricercatori che operano nelle scienze umane ed epistemologi.

BIBILIOGRAFIA Sulla storia della probabilit e della statistica si segnalano: Stigler S.M. (1986), The History of Statistics. The Measurement of Uncertainty before 1900, Harvard University Press, Cambridge (Mass.)-London; Porter T.M. (1986), The Rise of Statistical Thinking 1820-1900, Princeton University Press, Princeton; David F.N. (1962) , Games, God and Gambling. The Origins and History of Probability and Statistical Ideas from the Earliest Times to the Newtonian Era, Griffin, London; Maistrov L.E. (1974), Probability Theory. A Historical Sketch, Academic Press, New York; nonch Hacking I. (1975), The Emergence of Probability, Cambridge University Press, Cambridge. Tr. it. di M. Piccone, (1990), Lemergenza della probabilit, Il Saggiatore, Milano, e Hacking. I. (1990), The Taming of Chance, Cambridge University Press, Cambridge. Tr. it. di S. Morini, (1994), Il caso domato, Il Saggiatore, Milano. Si veda anche limportante raccolta di saggi a cura di Krger L., Daston L. e Heidelberger M. , (1987), The Probabilistic Revolution, MIT Press, Cambridge (Mass.)-London; nonch il von Plato J. (1994), Creating Modern Probability, Cambridge University Press, Cambridge. Fra i manuali di teoria della probabilit: Feller W. (1950, 1966), An Introduction to Probability Theory and its Applications, vol. 1 e vol. 2, Wiley, New York. Una concisa ed accessibile introduzione alla probabilit offerta da Gnedenko B.V. e Khinchin A.Y. (1962), An Elementary Introduction to the Theory of Probability, Dover, New York. Fra i manuali in lingua italiana: Daboni L. (1980), Calcolo delle probabilit ed elementi di statistica, UTET, Torino.
Linee di Ricerca SWIF ISSN 1126-4780 www.swif.it/biblioteca/lr

L. Floridi (a cura di), Linee di Ricerca, SWIF, 2006

962

Per una trattazione degli aspetti filosofici della probabilit rimandiamo a: Gillies D. (2000), Philosophical Theories of Probability, Routledge, London-New York; Galavotti M.C. (2000), Probabilit, La Nuova Italia-RCS, Milano, e Galavotti M.C. (2005), Philosophical Introduction to Probability, CSLI, Stanford. Considerazioni sul problema dellinterpretazione della probabilit sono reperibili anche in Costantini D. (2004), I

fondamenti storico-filosofici delle discipline statistico-probabilistiche, Boringhieri, Torino.

Linee di Ricerca SWIF ISSN 1126-4780 www.swif.it/biblioteca/lr