Sei sulla pagina 1di 67

Cos’è la filosofia della scienza

La natura della conoscenza scientifica riguarda non solo il metodo ma anche altri aspetti es.
ontologia scientifica, linguaggio scientifico, teorie scientifiche, ecc.
Questo si accompagna all’indagine sui nostri modi di conoscere un tempo gnoseologia e oggi
epistemologia, quanto ci possiamo fidare delle nostre conoscenze? Un modo particolarmente
affidabile di conoscere la natura si è rivelata la scienza e la filosofia ha dovuto riflettere su di essa.
La nascita della scienza si verifica nel 16 e 17 secolo, a partire dall’astronomia ma non solo. Qui si
verifica il periodo della “rivoluzione scientifica”, qui bisogna fare attenzione al termine
rivoluzione per cui secondo Kuhn ci sono stati enormi cambiamenti, ma bisogna vedere se è giusto
parlare di rivoluzione.
Questo ci induce a pensare che filosofia e scienza siano due ambiti distinti e che l’unico rapporto sia
che la scienza sia oggetto della filosofia, ma questo non è l’unico rapporto possibile. Articolo di
Einstein del 1916 su Mach: vd slide qui il termine epistemologia è sovrapponibile al termine
filosofia della scienza (nasce alla fine dell’800 e primi del 900 Reichenbach tiene una prima
cattedra) e non come lo intendiamo oggi. Qui si riconosce l’importanza per lo scienziato di
affrontare questioni epistemologiche (lo aveva già teorizzato Duhen).
Un altro tema è se davvero si possa parlare di progresso. L’analisi del pensiero scientifico
attraverso categorie filosofiche può rimuovere degli impedimenti al progresso scientifico. Quindi
per Einstein la filosofia della scienza può anche contribuire al progresso della conoscenza
scientifica, e in particolare rispetto al concetto di spazio e tempo Einstein è debitore di Hume e
Mach. C’è una polemica in Einstein con il neokantismo a proposito delle categorie di spazio e
tempo, che per Einstein hanno invece un’origine empirica.

Differenza tra induzione e deduzione


Il termine generale è inferenza, ragionamento o argomentazione. Vd slide “Il ragionamento di
tipo deduttivo va da premesse universali ad una conclusione particolare, mentre il ragionamento
induttivo va da premesse particolari ad una conclusione universale” è la definizione più popolare
che però non è la più corretta, perché andare dall’universale al particolare non ci garantisce che
sia una deduzione. Essere universale o particolare è una caratteristica di come sono fatte le
proposizioni.
La deduzione è una forma di ragionamento necessario, se le premesse sono vere le conseguenze
sono vere. Mentre il ragionamento induttivo è contingente e non è mai in grado di assicurare
questo.
L’induzione si dice che è ampliativa perché ci permette di passare dal particolare all’universale, da
casi del passato a casi del futuro. La più classica delle induzioni è quella degli smeraldi (tutti gli
smeraldi osservati sinora sono verdi: S1 è verde; S2 è verde…Sn è verde :tutti gli smeraldi sono
verdi), che ha la particolarità di estendersi del tempo e in questi casi la generalizzazione contiene
una proiezione nel futuro.
L’abduzione è un termine introdotto da Pierce. Slide dell’abduzione di Pierce. Esempio delle
palline rosse. Il punto è il tipo di operazione che viene fatta, che oggi chiamiamo inferenza alla
miglior spiegazione, per Pierce abbiamo dei dati e abbiamo un’ipotesi esplicativa dei dati, che poi
verrà vagliata dall’esperienza. Oggi invece si parla di inferenza alla miglior spiegazione in modo
diverso, perché se la nostra spiegazione può essere valutata come la miglior spiegazione rispetto ai
dati che ho, la posso considerare vera. Vedremo che il realismo scientifico ha come base questa
inferenza alla miglior spiegazione (non quella di Pierce).

17.3.2021
La rivoluzione scientifica

1
Non posso ripercorrere tutto questo periodo ma vi propongo un filo rosso legato dal ruolo della
matematica, perché mia intenzione è di sviluppare il tema del realismo scientifico: se la
matematica ci possa aiutare a scoprire la natura del mondo oppure no.
L’espressione rivoluzione scientifica si deve a Koyre e al suo allievo Khun. Questi autori
sottolineano l’aspetto rivoluzionario , ma altri autori sottolineano la continuità col passato già nel
periodo medioevale. Quindi questa etichetta va presa con molta cautela e si iscrive nelle analisi di
Koirè e sviluppata da Khun.
Io mi fermerò a Galielo e non arriverò a Newton.
Relativamente alla matematica si passa da un ruolo strumentalistico conforme alla prospettiva
della scienza aristotelica, e si passa ad un approccio in cui la matematica è un approccio
conoscitivo della natura (Galileo : le lenti della matematica). Questo si iscrive nel recupero della
cultura platonica: per Platone la natura è scritta in termini matematici (Timeo e Platone) ed è la
principale differenza rispetto ad Aristotele (ovviamente c’è l’influenza del pensiero pitagorico).

Il cosmo aristotelico
Il sistema è costituito da un insieme di sfere concentriche in mezzo a cui si trova la terra immobile.
Poi vi è la differenza tra il mondo sublunare (composto dai 4 elementi) e il mondo esterno
composto dall’etere, che è ingenerabile e incorruttibile e si muove del solo moto possibile che è
quello circolare (uguale a Platone). Le sfere celesti hanno un ruolo esplicativo perché devono
spiegare il moto dei pianeti . Questa teoria ha dei problemi: il primo è che il moto dei pianeti è
circolare e che non viene riconosciuto il moto terrestre. C’erano dei fenomeni che non avevano una
spiegazione chiara, per es. la variazione della loro luminosità che non si capiva. Pl indica a
Eudosso la strada per trovare degli strumenti per far coincidere l’apparenza dei moti dei pianeti in
termini di moti circolari.
L’Almagesto di Tolomeo riesce a costruire un sistema che dava conto del fenomeno della
variazioni di luminosità, anche se rimanevano sempre delle imperfezioni. Nel sistema tolemaico
ogni pianeta si muove su un piccolo cerchio epiciclo, che si muove su un cerchio più grande
deferente, che non è centrato sulla terra ma su un punto detto equante. Viene mantenuta una certa
simmetria, ma la terra viene spostata dal centro. Tolomeo era un realista (2 sec. d.c) e pensava che
i modelli matematici fossero in grado di descrivere il cosmo. Il sistema tolemaico viene interpretato
però in modo strumentalista, cioè ci consente di fare previsioni ma non descrive cosa accade
veramente nel moto dei pianeti. Qui è in gioco il concetto di spiegazione, anche se non viene
tematizzato in quei tempi.

Copernico
Anche il sistema tolemaico entra in crisi. Uno dei problemi più scottanti è legato al calendario e le
date delle feste religiose, in particolare la Pasqua (la prima domenica dopo la prima luna nuova di
primavera). Da qui nasce anche la riflessione di Copernico che partecipa al Concilio lateranense
del 1514 in cui viene presentata la questione della riforma del calendario. Copernico capisce che c’è
qualcosa che non va nel sistema astronomico. L’ipotesi eliocentrica era già stata avanzata in epoca
antica e medioevale. Ci sono forti influenze della cultura rinascimentale, e determinati valori
estetici morali es il sole viene considerato come donatore di vita.
Il de rivolutionibus viene pubblicata nel 1543 alla fine della sua vita ed è consapevole di proporre
un modello rivoluzionario. Copernico incarica un giovane matematico di pubblicare l’opera
Rehticus che si avvale di Osiander che fa precedere l’opera da una prefazione anonima,di cui nè
Copernico né Rethicus erano a conoscenza. Vd slide-prefazione qui si ha un uso strano della parola
causa, in modo neutrale rispetto all’ipotesi realista. I modelli matematici insomma non li prendiamo
sul serio, ma ci servono per fare previsioni esatte. L’idea di Osiander è che le cause possono essere
svelate colo per altre strade, diverse da quelle matematiche.

2
Nella stessa opera abbiamo una prefazione scritta da Copernico, lettera dedicatoria a Paolo III, in
cui cita i predecessori. Parla ancora di sfere (non è così rivoluzionario). C’è un’analogia con il
destino dell’opera di Darwin perché sono consapevoli del grande cambiamento che propongono.
Qui emerge il timore delle critiche. Copernico dice che i matematici non sono concordi (c’è un
fiorire di studi che propongono modelli diversi) : il problema del calendario, i moti dei pianeti.
Copernico critica la mentalità di fondo secondo cui poiché il movimento deve essere circolare la
terra al centro non possiamo immaginare un sistema differente. Il problema è che i movimenti dei
pianeti non sono regolari. In qualche modo Copernico in modo retorico fa risaltare il fatto che il
sistema degli epicicli e deferenti è cmq poco armonico.
Copernico presenta un grande cambiamento, ma i dati osservativi sono sempre quelli. Lascia
inalterati molti elementi tradizionali: le sfere cristalline, il cosmo è finito e sferico, i moti sono
uniformi e perfettamente circolari. Ma scopre che le cose migliorano se poniamo la terra al
centro. Utilizza cmq gli epicicli e i deferenti. Le ragioni fondamentali sono di tipo predittivo, ma
associa anche ragioni di tipo estetico, morale e religioso. Il moto dei pianeti è dovuto alla loro
sfericità, il sole come più nobile dei corpi celesti.
Possiamo concludere che Copernico più che un rivoluzionario è un riformatore. Ma ci sono
elementi innovativi: se la terra non è più al centro è un pianeta come gli altri e quindi l’uomo non
ha più una posizione centrale nel cosmo. Un aspetto fondamentale è il ruolo della matematica,
che non si limita alla previsione ma che ci consente di scoprire come è l’universo (ha le sue
radici nella cultura platonica, ed è presente anche in Tolomeo). Nel momento in cui si accumulano
dati nuovi, la matematica riesce a scardinare i principi metafisici e aprioristici. L’impiego della
matematica è rivoluzionario. L’aristotelismo ostacola l’utilizzo della matematica.

Tycho Brahe
Foto del quadrante che misura l’altezza dei corpi nel cielo. TB è stato uno dei più grandi
osservatori a occhio nudo del cielo. Egli utilizza nuove tecniche osservative: prima l’osservazione
non veniva fatta in modo sistematico, invece TB segue in maniera sistematica la posizione del corpo
celeste durante l’anno e questo gli permette di completare delle tavole osservative straordinarie. Lui
si costruisce il quadrante osservativo e capisce che più usiamo strumenti grandi e più le
osservazioni sono precise (costruisce un quadrante di 18 metri).
Vi ho illustrato come funziona il quadrante astronomico vd slide
Le sfere hanno un ruolo esplicativo, ma TB fa importanti osservazioni : osserva 4 comete e
confronta le posizioni che aveva rilevato con quelle di altri astronomi che si trovano in altri luoghi e
calcola la parallasse e comprende che la stella doveva essere collocata molto più lontana rispetto
quello che si pensava. Le comete venivano considerate dei fenomeni atmosferici sublunari. TB
capisce che le comete non fanno parte dell’area sublunare e questo va ad incidere su presupposti
metafisici: come fanno le comete ad attraversare le sfere rigide? Il cielo deve essere considerato
come un fluido aperto a tutte le direzioni. TB presenta un sistema planetario originale , un ibrido
tra elementi tolemaici e copernicani ma non è disposto ad ammettere che la terra si muova. La
terra rimane immobile ma attorno ad essa orbita solo il sole e la luna (lo aveva già detto Tolomeo),
ma gli altri pianeti orbitano intorno al sole. Il suo sistema funziona bene in termini predittivi
ed evita le obiezioni al moto terrestre.

18.3.20121
Johannes Kepler
K è un copernicano convinto nonostante lavori insieme a Brahe. Entrambi si applicano alla ricerca
empirica. K è più legato alla tradizione pitagorica platonica. Nel 1600 Brahe chiama K a collaborare
(vd biografia). Entrambi sono realisti. Nel 1609 esce un testo Astronomia Nova, che sono dei
commenti al moto di Marte a partire dalle osservazioni di B. Infatti Marte mostrava un movimento
molto irregolare e variabile ed era il più difficile di cui rendere conto. In questo testo enuncia le

3
prime due leggi del moto planetario. Lui descrive i tentativi e i calcoli che fa. All’inizio K non
mette in discussione la circolarità dei moti planetari . I pianeti sembravano variare la loro
velocità a seconda della loro vicinanza del sole e questo non si concilia con le orbite circolari e
col sistema dei deferenti e degli epicicli.
Disegno del moto di Marte (vd slide) Nel secondo disegno si vede come vengono proiettate nel
cielo le posizioni del pianeta con dei strani giri (questo poteva ancora essere spiegato dal sistema
anche se bisognava fare un gran lavoro (4 disegno animato), il vero problema era la differente
velocità dei pianeti.
La prima legge ci dice che i pianeti si muovono su orbita ellittica in un fuoco della quale è
occupato dal sole: qui K scova la soluzione matematicamente più semplice. Non è
immediatamente trasparente perché un meccanismo più semplice sia il più corretto. I calcoli si
semplificano e sono molto più precisi e si rende conto dell’orbita di Marte (ci vorrà un’altra
parte).
La seconda legge ci dice che il raggio vettore che congiunge il pianeta con il sole descrive aree
uguali in tempi uguali (questo rende conto della diversa velocità del pianeta).
L’equazione di K serviva a calcolare la posizione del pianeta in un certo momento.
K si chiede se la forma circolare delle orbite e la loro uniformità si basano sull’idea di mantenere
una certa perfezione, come mai i calcoli si dimostravano così imperfetti?
La terza legge: quadrati dei periodi di rivoluzione sono proporzionali ai cubi dei semiassi
maggiori dell’ellisse. Ciò implica che i pianeti più vicini al sole abbiano un periodo di rivoluzione
più breve rispetto a quelli più lontani. Viene presentata in uno dei testi più affascinanti
Harmonices mundi (1619), riprendendo un tema pitagorico e questo ci fa capire la forte influenza
della componente filosofica tradizionale (Galileo è un eccezione da questo punto di vista).
I pianeti più vicini al sole hanno quindi un periodo di rivoluzione più breve rispetto agli altri.
Per l’autore non era la cosa fondamentale del testo, che era invece cercare di riprodurre una sorta di
armonia cosmica (già lo aveva fatto Pitagora e altri autori), associando i moti dei pianeti alle
armonie musicali. Viene chiamata la musica delle sfere . La maggior parte del testo è dedicato a
questo tema.
Con Brahe ci eravamo chiesti chi muove le stelle? K cerca di fornire una spiegazione del moto dei
pianeti. William Gilbert scrive un testo di successo nel 1600 e tratta dei fenomeni magnetici e
attribuiva alla terra la natura di corpo magnetico. Egli distingue tra forza di attrazione elettrica e
magnetica, quest’ultima non ha bisogno di essere attivata e quindi è una forza sempre attiva da sé.
Egli pensa che sia la forza magnetica a tenere legati i pianeti (egli era più un fisico che un
astronomo).
K formula un’ipotesi fisica sulle cause del moto planetario e immagina il sole come un polo
magnetico e ogni pianeta come un pianeta che abbia sempre lo stesso orientamento e ora espone un
polo e ora un altro e quindi viene alternativamente attratto e respinto dal sole. Lui parla di specie
immateriale analoga a quella della luce( difficile capire cosa sia, neanche a loro forse era chiaro, ha
una natura materiale ma non corpuscolare). Sopratutto la specie agisce con forza inversa alla
distanza (ci ricorda la forza gravitazionale).
Gli astronomi quindi non solo prevedono ma cercano di capire come è fatto il mondo.

Galielo Galilei
Rispetto agli altri è poco interessato alla cultura accademica. Vd biografia.
L’impetus è una vecchia teoria molto importante per tutto il 600. Nella fisica aristotelica il moto
indica cambiamenti diversi ma noi ci concentriamo sul moto come movimento nello spazio. Il moto
si divideva in naturale e violento; il primo era dovuto alla natura materica dei corpi: i corpi terrosi
andavano verso il luogo naturale. I moti violenti consistevano un una forza che mutava il moto
naturale. Il moto violento doveva essere giustificato solo da una azione continua di una forza
“cessante cause cessant effectus”. La nozione di forza probabilmente si origina dalla nostra

4
esperienza di forza. Attualmente le forze sono sole funzioni matematiche e non esistono nel mondo.
Ma la nostra esperienza non collima con questa teoria: se spingiamo un corpo esso continua a
muoversi. Il moto del proiettile costituisce un problema quindi e i mezzi erano complicati vd slide.
Nel 300 Buridano propone la teoria dell’impeto: abbiamo una prima fase di moto violento e poi
c’è la forza del movimento naturale (la parte curva) e alla fine prevale il moto naturale e il proiettile
cade.
Galileo nel de motu (1590) riprende la teoria dell’impetus e studia come corpi diversi cadano in
mezzi diversi e mette in relazione la velocità con l’attrito cosa che era stata trascurata da Aristotele.
L’attrito diventa fondamentale per il principio di inerzia.
Questo esperimento mentale è presentato nei dialoghi sopra i due massimi sistemi del mondo ed è
quello dei piani inclinati (lui fa esperimenti coi piani inclinati ma qui ha la natura di esperimenti
mentali). Se noi facciamo scendere una pallina da un piano inclinato arriva a terra e dopo un po si
ferma. Nella teoria dell’impetus si ferma perché a poco a poco si consuma. Immaginiamo di mettere
davanti al piano inclinato, altri piani con diversa inclinazione e la pallina risalirà raggiungendo la
stessa altezza, questo ha come risultato che la pallina percorre una distanza più lunga . Se
incliniamo sul piano orizzontale la pallina non si ferma più in assenza di attrito. Non si può fare
questo esperimento in assenza di attrito e quindi in qualche modo è un’astrazione dall’osservazione.
L’osservazione non può essere ingenua (accusa di Ar agli aristotelici) . Allora la pallina si ferma
perché c’è l’attrito e quindi in assenza di attrito il corpo continua nel suo stato di moto e questo è
rivoluzionario perché non bisogna immaginare una forza continua che faccia muovere i
pianeti come quella magnetica di Keplero (l’attrito lo aveva studiato nel de motu in relazione alla
caduta dei corpi).

Sidereus nuncius (1611)


Viene a Padova. Legge Keplero. Ha occasione di vedere in funzione un cannocchiale (non si sa
bene l’origine) e ne costruisce uno, non era un esperto di ottica ed agisce in modo empirico. Lui
arriva fino a 21 ingrandimenti.
Il testo è pieno di osservazioni che hanno una forza dirompente. I 4 satelliti di Giove, che la luna è
cosparsa di crateri e le macchie solari. Inoltre Venere e Mercurio hanno fasi simili alla luna e questo
è incompatibile col sistema tolemaico. Si notava che Venere e Mercurio fossero vicini al sole e si
immaginava che l’asse dell’epiciclo fosse allineato al sole Ma se le cose stanno così Venere doveva
essere poco visibile (a spicchi) , mentre in un sistema copernicano questo è spiegabile (sia che non
si allontani troppo dal sole e sia che si veda anche a metà e per intero). Questo è un argomento
molto forte contro il sistema tolemaico.
I tolemaici attaccano il cannocchiale e dicono che non è uno strumento ottico affidabile e non può
funzionare sulle grandi distanze. Ai tempi il cannocchiale aveva dei problemi e in particolare
problemi di aberrazione cromatica, non era un’obiezione campata in aria (il problema era dovuto a
un problema: la prima era una lente convergente in un punto e questa deviazione dei raggi di luce
non è costante per tutte le lunghezze d’onda e quindi i raggi blu che vengono deflessi maggiormente
cadono prima e così via per gli altri colori . Questo porta allo sfocamento delle immagini.
Rimangono due dei suoi cannocchiali e su luce monocromatica funzionano alla perfezione. Qui la
questione si sposta su un piano di dibattito realista.

Il saggiatore (1624)
Nel 1618 erano state osservate tre comete. Orazio Grassi, scienziato gesuita, scrive un saggio in
difesa della visione aristotelico tolemaico. G risponde con un primo saggio. Orazio Grassi risponde
con un altro testo (libra astronomica…). G risponde con il saggiatore, che è una bilancina di
precisione usata dagli orafi e accusa Grassi di scarsa raffinatezza e qui subentra l’elemento della
precisione (Koirè). La teoria sulla comete di G poi si rivelerà sbagliata, ma il testo è importante per
le sue osservazioni sul metodo.

5
L’universo è scritta in lingua matematica. La conoscenza scientifica doveva passare per sensate
esperienze e necessarie dimostrazioni (alcuni dicono certe). Le sensate esperienze sono quelle
compiute attraverso i sensi, ma non devono essere passive, bisogna avere un occhio vigile e critico .
Questo ci conduce a formulare ipotesi anche azzardate e sorprendenti. Noi oggi la chiameremo la
fase induttiva.
Le certe o necessarie dimostrazioni alludono a quella che noi chiameremo pratica deduttiva che
deve essere confermata dall’esperienza . Questo è il metodo scientifico galileiano.
Un’altra tesi è la distinzione tra proprietà dei corpi quantificabili ed osservabili e le altre .
Egli pone l’accento sull’importanza delle proprietà quantificabili e precisa che le altre proprietà
risiedono solo negli organi di senso , tuttavia questa distinzione non è chiaro se debba essere intesa
sul piano ontologico o solo sul piano metodologico. Sembra che il suo punto sia più
metodologico che ontologico, cioè che scientificamente vale la pena che conviene occuparci solo
delle qualità primarie.

19.3.2021
Il gran naviglio
Abbiamo visto alcune tesi fondamentali del Saggiatore. A noi interessa concentrarci sulle prime due
affermazioni. Oggi ci soffermiamo su un esempio di questi principi e che riguarda il moto
uniformamene accelerato.
Prima vediamo un altro famoso esempio di Galileo nell’opera del “Dialogo sopra i due massimi
sistemi”, in cui dopo la condanna ricomprende le sue teorie sul moto. C’era un famoso argomento di
derivazione aristotelica che si opponeva al moto della terra: se la terra si muovesse se un corpo di
dovesse sganciare dalla terra (un corpo che cade dalla torre) questo dovremo verificarlo e la pallina
dovrebbe cadere alle spalle della torre. Per Galileo queste visioni empiriche derivano da una
concezione ingenua del mondo. L’argomento del gran naviglio consiste in un esperimento
mentale fino ad un certo punto, perché si basa sulle esperienze che noi facciamo più o meno
perché ci viene richiesto di pensare a situazioni ideali. Immaginiamo varie cose, di lanciare una
palla ci una ciotolina che gocciola: se la nave sta ferma assisteremo a questi fenomeni gli insetti
volano in tutte le direzioni, così pure i pesci, le gocce d’acqua cadono perpendicolare e centrano il
contenitore sottostante, la palla la lancerò sempre con la stessa forza per raggiungere il mio
compagno. Immaginiamo che la nave si muova liscia sull’acqua e che abbia un moto uniforme: noi
vedremo accadere le cose descritte prima nello stesso modo.
Quindi io non sono in grado di stabilire osservando i fenomeni se la nave stia ferma o si muova di
moto rettilineo uniforme. Se noi consideriamo la terra in analogia col naviglio possiamo dire che i
corpi che cadono dalla torre, o i proiettili dal cannone non siamo in grado di capire se la terra sta
ferma o in moto. Introduce il concetto di sistemi di riferimento inerziali, ed è molto importante,
perché se questo principio non vale non è possibile elaborare leggi uniformi della natura che non
subiscono variazioni. In realtà sappiamo che la terra non è un sistema di riferimento inerziale:
Guglielmini nel 700 riscontrò che gli oggetti hanno una certa deviazione verso est, però con una
certa approssimazione possiamo considerare la terra un sistema di riferimento inerziale.

Il moto uniformemente accelerato (Discorsi e dimostrazioni matematiche sopra a due nuove


scienze 1938)
Galileo “ quando, dunque, osservo una pietra….” (vd slide): se io osservo una pietra cadere essa
accelera, perché non dovrei pensare che questa accelerazione sia costante nel modo più semplice?
Secondo la teoria del moto aristotelico l’accelerazione non è costante ma aumenta fino a
raggiungere il moto massimo e questo dipende dalla densità del corpo: più il corpo è denso è più
verrà accelerato, una volta raggiunta l’accelerazione massima la manterrà. L’ipotesi che
l’accelerazione sia costante deriva a G dai suoi studi precedenti sul moto e sul pendolo (G scopre
che il periodo di oscillazione del pendolo nel coprire un arco, non dipende da quando noi alziamo

6
né dal peso dal pendolo, ma solo dalla lunghezza del filo) . C’è l’accenno alla semplicità (che era
stata fondamentale in Keplero): la tesi più semplice è che l’accelerazione è costante.
A questo punto formula la prima ipotesi, cioè la legge generale: v=kt (arrivati a un tempo t la
velocità raggiunta è data dall’accelerazione(k costante) per il tempo. Lui ci presenta come un modo
diverso di guardare i fenomeni da come si faceva in precedenza.
La seconda ipotesi è più articolata e la da come assunzione, tuttavia cerca di dimostrarla in qualche
modo, ma facendo un’analogia col pendolo (ma non lo vediamo). Facciamo scivolare il peso lungo
piani inclinati e come abbiamo visto se il piano diventa orizzontale al limite il corpo continua
indefinitivamente il suo moto. (Perché fa questa analogia col pendolo? Perché nell’oscillazione col
pendolo l’attrito è molto minore). G usa questa situazione ideale per un altro tipo di ragionamento:
supponiamo di far partire il nostro corpo da altri piani diversamente inclinati purché parta dalla
stessa altezza, quando la boccia arriva al punto b avrà sempre la stessa velocità, perché risalirà
sempre alla stessa altezza. Quindi la velocità non dipende dall’inclinazione ma dall’altezza.
Questa seconda ipotesi entrerà in gioco alla fine.
Partiamo dal primo teorema: “il tempo in cui uno spazio dato…..” vd slide se noi abbiamo due
corpi, uno si muove di corpo uniformemente accelerato, dopo un certo intervallo di tempo avrà
raggiunto una velocità finale vf (è la velocità finale); un secondo corpo (b) viaggia di velocità
costante dall’inizio ed è la metà della velocità del corpo a. Il teorema ci dice che in
quell’intervallo di tempo i corpi percorrono spazi uguali.
Assi cartesiani: tempi vf è la velocità finale , vm è la velocità media. Se noi avessimo il corpo a che
si muove di moto uniforme e non accelerato per calcolare lo spazio che percorre facilmente faremo
velocità per tempo; ma il nostro corpo si muove di moto accelerato. Viceversa per il secondo corpo
possiamo fare il nostro calcolo semplice (v x ). A questo punto ci accorgiamo di una cosa semplice.
G dice che per calcolare l’area del triangolo possiamo pensarlo come costruito di tante
approssimazioni di piccoli rettangoli , però lui dice l’area del triangolo e del rettangolo hanno una
certa relazione: possono essere pensate come composizioni delle medesime figure e quindi la loro
area è uguale e quindi lo spazio percorso dai due corpi è uguale.
La spiegazione continua con altri passaggi (vd slide).

25.3.2021
L’intuizione è di calcolare gli spazi per tempi sempre più piccoli di modo da rendere equivalenti gli
spazi percorsi.
Ora dobbiamo vedere il metodo di verifica sperimentale.
Domanda: rapporto tra metodo galileiano e metodo ipotetico deduttivo, viene elaborato a partire
dai primi anni del 900 e dice l’importanza del rapporto tra teoria ed esperienza è interamente
spostato sul rapporto di conferma, che ora stiamo esaminando. Spostando l’attenzione sul rapporto
di conferma-disconferma si toglie peso alla fare della formulazione della teoria. In questo metodo la
formulazione delle ipotesi è libera, non è importante, cioè che conta è che ci sia la conferma tra la
teoria e i dati. Fino agli inizi del 900 (Jhon Stuart Mill) l’impegno era quello di sviluppare una
logica induttiva efficace, il metodo scientifico doveva prevedere regole anche per la fase induttiva.
Riguardo Galileo non c’ è questo spostamento di importanza sulla fase della conferma, egli ritiene
entrambi i momenti importanti, però diversamente dagli induttivisti non formula regole di
ragionamento su questa fase, ma sottolinea l'importanza di questa fase perché il momento storico
spinge a staccarsi dalla tradizione.

Vediamo una specifica tabella, (2 riga: dopo un secondo avrà percorso quegli spazi). Terza tabella:
se io voglio calcolare quando spazio viene percorso negli intervalli di tempo dobbiamo sottrarre allo
spazio percorso nel secondo, il primo intervallo (?). Quarta riga viene fuori la proporzione dei
numeri dispari. 5 riga gli spazi effettivamente percorsi. Questo mi permette di formulare delle
ipotesi di misura che andranno confrontati con l’esperimento in laboratorio.

7
Lui utilizzava gli orologi ad acqua per misurare i tempi (si dice anche che utilizzasse il battito
cardiaco). Fece tanti esperimenti sui piani, e li usava perché rallentavano la caduta, però l'utilizzo di
questo sistema supponeva che ci fosse un’analogia tra la caduta sul piano e la caduta libera. Foto dei
piani inclinati (sono molto lunghi) , aveva posto delle campanelle agli intervalli previsti dalla sua
teoria, a ogni passaggio la pallina faceva suonare la campanella (ovviamente c’era
un’approssimazione). Ad ogni suono doveva passare lo stesso intervallo di tempo e quindi a ogni
passaggio la pallina aveva accelerato e quindi questo voleva dire che il suo calcolo era stato
corretto.
Abbiamo visto che la velocità finale dipende solo dall’altezza e non dalla inclinazione e alla
inclinazione massima arriviamo alla perpendicolarità. Lui questo ragionamento lo presenta come
un’assunzione e quindi lo applichiamo alla caduta verticale. Siamo partiti vedendo che questa
ipotesi era in contrasto con la fisica aristotelica che presupponeva una metafisica. Questo significa
assestare dei colpi alla metafisica aristotelica. Questo mette in crisi la fiducia che si aveva nel
dedurre le leggi fisiche dalla metafisica.
Domanda: vengono selezionate delle particolari proprietà dei corpi, per rendere semplici, misurabili
ed efficaci le osservazioni. Viene meno un’esigenza esplicativa più profonda, io misura la caduta
dei corpi con strumenti matematici e tutto ciò che io posso conoscere è questo. Riguardo alle
essenze, cioè le proprietà che caratterizzano la natura di un corpo, non vengono più prese in
considerazioni. In Galilei vengono ignorate, non era ancora un punto di vista generalizzato (David
Kahneman ha teorizzato la differenza tra pensiero lente e pensiero veloce). La conoscenza
scientifica è altamente affidabile all’interno di un certo contesto.

26.03.2021
Il meccanicismo
Quest’anno lo ho un po sacrificato, tuttavia è un termine che torna anche dopo il 700, è una sorta di
etichetta a partire da cui si cercano di risolvere sia problemi scientifici che filosofici. Cambia volto
con Newton, con la teoria elettromagnetica e poi nel 900 (in cui si parte da una definizione astratta
di macchina. Oggi si parla di neomeccanicismo a partire da una considerazione astratta di
macchina).
Pierre Gassendi, Johm Locke, Newton (Cartesio) sono molto importanti per la prima visione del
meccanicismo.
Origini
Si lega alla visione atomista classica, anche se i concetti sono totalmente rivisti e quindi io li ho
ignorati. La natura può essere considerata come un insieme di fenomeni descrivibili ed esprimibili
in termini geometrico-matematici. Riguardo al concetto di natura, Galileo non estende
immediatamente la teoria del moto al moto dei pianeti (avverrà nel tempo): progressivamente il
modello di conoscenza della meccanica si estende a coprire arie sempre più vaste della filosofia
naturale. Costituisce uno sfondo teorico metafisico, che sostituisce quella aristotelica, e che ha la
pretesa di nascere dalla conoscenza sperimentale.
Attraverso la teoria del moto di Galileo abbiamo visto un esempio di questa nuova filosofia e
troverà pieno sviluppo nella meccanica newtoniana in cui si estende la teoria del moto ai corpi
celesti e quindi la meccanica diventa una teoria universale. Il modello della meccanica è un modello
che spiega tutto attraverso una metafisica di tipo meccanicista.

Principi fondamentali
La realtà viene semplificata perché ogni fenomeno è pensato come l’esito dell’interazione di
materia, un’interazione che è pensata sul modello del contatto. L’interazione è semplice : è il
contatto.
Si isolano anche gli elementi che sono importanti per la conoscenza della natura, le proprietà sono
quelle quantificabili matematicamente.

8
La metafisica è molto diversa dalla precedente perché si basa su proprietà quantificabili e da
importanza alle proprietà relazionali. E’ una metafisica quantitativa relazionale, non ha più
importanza la natura degli oggetti coinvolti, non è più una metafisica dell’ente, contano le relazioni
descrivibili matematicamente.
Questi principi che abbiamo visto, assumono un valore esplicativo universale e forniscono
un’immagine astratta dei fenomeni (astrarre significa non considerare alcune caratteristiche a
scapito di altre); es. Galileo ritiene che l’attrito non sia fondamentale per capire il modo. E’ un
punto fondamentale. Oggi quando si parla di modelli scientifici c’è il rapporto tra modello e
rappresentazione, però noi sappiamo (es.modello del DNA noi sappiamo che ha una struttura molto
più complessa perché ci sono altre molecole attaccate) che i modelli rappresentano solo
parzialmente e sono in questo specifico senso falsi, però in questo modo acquisiscono anche
potenza.

L’ontologia alla base del meccanicismo implica che non possiamo attribuire la mondo tutte le
proprietà che noi percepiamo ma solo alcune: il mondo non è come ci appare.
Boyle e Locke adottano esplicitamente questa distinzione e adottano la distinzione tra proprietà
primarie e secondarie. Avevo detto che in Galielo questa distinzione è più metodologica, invece
questi due autori difendono questa posizioni metafisica nella sua pienezza.
Locke: qualità primarie e secondarie
Non è l’unico e diviene comune nel 600. Esempio di un oggetto, se diciamo di un tavolo che è
rotondo e marrone diciamo due cose vere, però ci inganniamo riguardo a cosa siano: essere marrone
non è ciò che noi crediamo essere. L’essere rotondo è una proprietà primaria (Locke compila molti
elenchi di queste proprietà): sono quelle misurabili matematicamente e appartiene ai corpuscoli
della materia e agiscono sui nostri sensi provenendo dal tavolo. Se l’interazione è sempre per
contatto, avvenendo la percezione a distanza, dobbiamo ipotizzare un processo intermedio e quindi
si parla di atomi che si staccano (riprende l’atomismo greco). Le proprietà primarie sono attribuite
ai corpuscoli, che hanno la rotondità e colpiscono i nostri sensi. L’idea di rotondità che si genera in
noi è somigliante alla proprietà posseduta dal tavolo.
Perché i corpuscoli, che sono invisibili, hanno le proprietà primarie e non secondarie? Dietro
ci sta la metafisica che si sta creando, se io parto dall’idea che è la meccanica a spiegare i fenomeni,
la forma la posso tramettere per il contatto ma non il colore. Abbiamo un modello esplicativo che si
accompagna a una certa ontologia. Qui si costruisce un ontologia a partire da una fiducia che la
meccanica ha acquisito e quindi i corpuscoli devono avere le proprietà che mi permettono di
spiegare il resto (le qualità secondarie sono spiegabili a partire dalle qualità primarie dei corpuscoli
e attribuiti agli oggetti composti ). Se diciamo che il tavolo è marrone, questo non è falso, ma la
proprietà di essere marrone è una capacità che il tavolo ha di formare in noi la sensazione e l’idea
del marrone. Questo potere del tavolo dipende dalle proprietà primarie. Quindi le proprietà
secondarie ci sono ma non sono quelle che appaiono (tenere a mente questa nozione di potere che
ritroveremo in Hume). Nella filosofia di oggi il potere lo chiameremo disposizione es. se diciamo
che un oggetto è fragile, è una proprietà che si manifesta in certe situazioni.
L’ontologia
Il meccanicismo si accompagna a una ontologia corpuscolare, è il termine corretto, al posto di
atomismo, perché Gassendi e Locke erano atomisti, mente Cartesio no. Il contendere è l’infinita
divisibilità della materia: Per Cartesio la materia è estesa e quindi infinitivamente divisibile.
Quindi per Cartesio c’è un continuum senza vuoto. Gli atomisti ritengono che si può pensare una
materia indivisibile, perché dicono che prima o poi si arriva al punto geometrico. Il modello
cartesiano è veramente avanzato, anche per Cartesio le interazioni sono urti, ma è difficile da capire
se c’è un plenum; ma quello che è importante è il modello matematico. La questione dell’ontologia
meccanicistica è veramente complicata. Questo si accompagna a un forte riduzionismo, si estende

9
questa tesi ad estendere ai fenomeni chimici, biologici e mentali. E’ una sorte di valanga che
acquista sempre più potere.
Il meccanicismo evolve e muta pelle: noi distingueremo tra meccanicismo forte e debole: il primo
è ancora all’interazione per contatto, ma entra in crisi con la meccanica newtoniana che fa un uso
molto esteso della nozione di forza, che noi non comprendiamo attraverso la teoria del contatto, ma
la teoria di Newton non era soggetta a questo tipo di spiegazione. Questo tipo di metafisico si
accompagnavano a modelli matematici attraverso un sistema di equazioni, ma non si riusciva a farlo
con il sistema di Newton (il famoso ipotesi non fingo: io non so dire quale sia il principio materiale
alla base della gravitazione): questo entra in conflitto non solo con l’aristotelismo ma anche coi
corpuscolaristi (i cartesiani contestavano la teoria di Newton perché ipotizzavano forze a distanza).
Tuttavia la meccanica di Newton ha un enorme successo perché al suo interno rientrano i moti dei
pianeti e la caduta dei gravi sui pianeti. Allora il meccanicismo si ammorbidisce e si accetta il
concetto di forza a distanza (si parla di effluvi all’inizio). Il meccanicismo diventa quella
propensione a spiegare i fenomeni della natura a partire dalla meccanica Newtoniana.

Il determinismo
Laplace è il suo rappresentante più noto: vd slide definizione. Una mente divina può prevedere
tutto quello che accade. Siamo già nel 700: la prima ricaduta è aprire un dibattito enorme in ambito
morale di conciliare il determinismo con il libero arbitrio.
Un’altra ricaduta è nell’ambito teologico perché si insinua un’idea (aneddoto di Laplace e
Napoleone: Laplace dice che Dio è un’ipotesi di cui io non ho bisogno): questo vuol dire che è un
cosmo così strutturato è autonomo e possiamo immaginare Dio, come quello che da una spinta
iniziale (un ingegnere in vacanza).

31.3.2021
Il problema dell’induzione
Riprendiamo il tema di induzione e deduzione che abbiamo già visto e cercheremo di precisare in
che senso il problema di Hume è il problema dell’induzione. La sua riflessione si concentra sul
rapporto causa ed effetto che non comprende tutto il problema dell’induzione in generale.
Induzione e deduzione sono un tipo di argomento o inferenza. Inferenza deduttiva ed induttiva.
In Ar si rintraccia per primo questa distinzione noi questa distinzione la rintracciamo specialmente
negli analitici secondi: vd citazione Ar.
Il nostro modo di acquisire conoscenza o passa attraverso l’induzione o la deduzione. La logica di
Ar si sviluppa intorno a due distinzioni: universali e particolari, affermativi o negativi. La
deduzione parte da proposizioni universali e giunge a conclusioni universali, mentre l’induzione
parte da proposizioni particolari ma può giungere a proposizioni universali o particolari. Il ruolo
dell’induzione è quello di permetterci di cogliere proposizioni universali. Cosa sono questi asserti
universali? Quando si prova che proposizioni appartengono ad uno stesso genere.
Induzione: vd slide. La conoscenza certa la otteniamo per mezzo di sillogismi deduttivi che
derivano da premesse universali. Ma come otteniamo le premesse universali? Dobbiamo fermare il
regresso. Un modo è fare riferimento all’intuizione (nous) o all’induzione (epagoge). Però
l’induzione non ci dà certezza.
Quanti tipi di induzione esistono?
Se leggiamo la letteratura anglosassone si riduce come problema di Hume, però ci sono delle
differenze.
La più semplice forma è l’induzione per enumerazione: tutti gli oggetti di tipo a osservati finora
hanno la proprietà b; quindi tutti gli oggetti di tipo a hanno la proprietà b, quindi il prossimo oggetto
di tipo a sarà b.

10
Induzione probabilistica; degli a osservati l’80 per cento ha la proprietà b, quindi tutti gli a l’80
per cento ha la proprietà b
Conferma induttiva: data un’ipotesi h rispetto alla quale ho un certo grado di fiducia valutato sulle
informazioni di sfondo, l'acquisizione di un nuovo insieme di informazioni e aumenta la credibilità
di h.
L’abduzione: non bisogna confonderla con l’inferenza alla miglior spiegazione. Pierce dato un
insieme di dati d, s si rivela essere una buona spiegazione (la migliore) per d, quindi è probabile che
s sia vera.
Tutti questi ragionamenti non portano alla certezza.

Induzione analisi generale


Affidabilità
Può essere vista come uno strumento che ci permette di giungere a conclusioni vere, sempre o
almeno la gran parte della volte quando venga applicata correttamente.
Normalmente ci fidiamo delle calcolatrici, ma come ci comporteremo se di dicono che ogni tanto
commettono degli errori? Cercheremo di valutarne l’affidabilità. E sceglieremo la calcolatrice che
sbaglia meno e saremmo in grado di giustificare questa scelta. Immaginiamo che l'interlocutore ci
chieda come facciamo a sapere che è quella che sbaglia meno. Noi diciamo che sbaglia una volta
ogni cento e l’interlocutore ci chiede come facciamo ad escludere che la calcolatrice non aumenti i
propri errori. Immaginiamo di non poter rispondere, siamo ancora in grado di giustificare la nostra
scelta? Questo è il punto.
Il problema humiamo è che noi non siamo in grado di rispondere all’ultima domanda. Hume
dice che il problema non è quello di giustificare l'impiego dell’induzione, perché di fatto per lo più
funziona, dà una soluzione scettica ma spiega perché di fatto usiamo l’induzione.

Induzione analisi generale: premessa: tutti gli atomi di idrogeno osservati sono composti di un
protone e di un elettrone vd slide.

David Hume:
Vd opere Noi portiamo l’enquiry e non il trattato; per gli interpreti è un problema la relazione tra le
due opere. Hume è deluso da come viene accolto il trattato e lui la considererà come un’opera
pubblicata in maniera frettolosa in cui sono state accumulate molte argomentazioni non sempre
soddisfacenti. L’idea dell’enquiry non è rivedere le tesi ma dare una riformulazione più efficace .
L’inferenza causale: come noi ragioniamo sulle cause e gli effetti. Per H la relazione di causa è una
relazione tra entità o oggetti ( per noi sono normalmente la istituiamo tra eventi ma lui oscilla a
parlare tra entità ). Cmq il problema è generale e riguarda la possibilità di giustificare l’induzione.
Il programma di fondo di Hume non cambierà mai anche se allargherò il suo ambito.
Lui vuole estendere all’uomo il modello della filosofia della natura, lui parla di metodo
sperimentale, ma in lui in realtà molti passaggi sono lasciati all’evidenza. Forse la vera innovazione
di H consiste nella cautela di non esprimere delle opinioni su tematiche su cui non si hanno dati
sufficienti e di dare l’assenso solo sulla base dei dati che abbiamo: il tracciare i limiti della
conoscenza. Cartesio cerca delle basi su cui basare la conoscenza umana, Hume fin dall’inizio ha
presente che ci sono dei limiti alla conoscenza che non possono essere varcati. Es lui si trattiene
dall’affermare qualcosa sull’atomismo, perché non abbiamo dati. Questa impostazione è una novità
che può trovare analogie col pensiero scientifico.

La teoria della conoscenza (teoria delle idee)


La teoria delle idee è la moda del periodo: Hume, come Locke, nega che esistano idee innate, tutta
la nostra conoscenza parte dalle percezioni, che si dividono in impressioni che sono le sensazioni

11
che ci derivano dai nostri sensi, ma anche delle impressioni interne es. sentire dolore, piacere
(primarie) e passioni ed emozioni (secondarie).
Le idee sono percepite, sono qualcosa che deriva dalle impressioni. Nella nostra mente ci sono in
quanto copie delle impressioni, e ci sono idee più vivide o meno, sono una copia sbiadita delle
impressioni. Quando ragioniamo noi combiniamo idee. Per H il pensiero non è mai scisso dalle
emozioni, dalle passioni. Lui non definisce chiaramente la differenza tra mind e soul .
La differenza tra impressioni ed idee è trasparente al soggetto, le impressioni originarie derivano da
cose sconosciute, questo è uno dei limiti della conoscenza filosofica (già Locke aveva detto
qualcosa del genere come i corpuscoli originano le proprietà secondarie,e ci ricorda Kant). Le idee
sono quindi una copia sbiadita, nel senso che sono presenti tutte le proprietà percepite ma in modo
meno vivido.
Vd slide: impressioni di sensazione e di riflessione. Abbiamo le impressioni all’origine che
generano le idee che sono una copia nella mente, che quando ritorna nell’anima provocano
speranza, desiderio e paura che sono le impressioni di riflessione. Questo sarà fondamentale per
l’etica humiana. Le impressioni di riflessione sono ricopiate nella memoria e generano altre idee e
così via. Cosa si intende per anima? Difficile capirlo, ma probabilmente è la funzione del sentire

Idee secondarie: non dobbiamo confonderla con la distinzione proprietà primarie e secondarie (una
differenza che H accenna appena. Le idee secondarie: sono idee di idee, immagini delle primarie;
ma cmq tutte le idee quindi derivano dalle impressioni. La catena comincia dalle impressioni.

1.4.2021
Teoria della conoscenza
Le nostre percezioni possono essere semplici o complesse. Es nel caso di un fiore, noi abbiamo un
impressione complessa, ma l’individuazione di quale sono le impressioni semplici è un processo
trasparente, e prima o poi si arriva a un’impressione semplice (sposta l’onere della prova). E’ una
sorta di atomismo delle percezioni difesa anche da Locke.
Le idee semplici sono sempre precedute da impressioni semplici che corrispondono ad esse, esiste
una corrispondenza tra impressioni semplici ed idee semplici. Questa relazione è resa evidente da
un atto di riflessione sulla nostra modalità di pensiero e non è dovuta a una coincidenza. Lui dice
che deve esistere una relazione causale tra immagini semplici e idee semplici.
Foto di un animale fantastico: L’immaginazione ha la capacità di collegare tra loro idee molto
diverse senza alcun limite, partendo dalle impressioni e dalle idee semplici.
Hume riconosce dei principi associativi tra le idee, il modo in cui ragioniamo (quindi non il
discorso sull’immaginazione che procede liberamente). Hume distingue tra associazioni e le
relazioni: le relazioni derivano dal confronto tra idee o impressioni ma non generano
necessariamente un’associazione, le relazioni sono minimali e derivano tra un confronto.
L’associazione la abbiamo quando un’idea ne richiama immediatamente un’altra. Per avere
una relazione dobbiamo avere due impressioni o idee davanti a noi ; l’associazione diventa un
richiamo di un’idea a un’altra, un’impressione richiama un’idea, sono comprensibile a posteriori ma
non sono frutto di una riflessione. Alcune relazioni danno origine a un’associazione, ma non
tutte.
Noi vedremo tre relazioni e solo tre creano associazioni. Hume afferma che la relazione tra causa
ed effetto non è un mero pensiero ma genera un’idea di qualcosa di esistente. Le altre due
relazioni non possono mai creare la credenza nell’idea che viene associata. Nessun’altra relazione è
in grado di fare questo, la relazione di causa ed effetto è l’unica che ci permette di andare oltre i
nostri sensi. La relazione di causa ed effetto ci permette di asserire l’esistenza di qualcosa che non è
davanti ai nostri sensi (in alcuni punti sembra dire che anche la somiglianza può fare questo ma
sono passi deboli del trattato).
Ci sono sette tipi di relazione: vd slide

12
Contrarietà e identità: due impressioni sono l’una la negazione dell'altra (contrarietà, non dice
molto). La nozione di identità è l’identità diacronica, che cioè si accompagna al nostro giudizio di
continuità nel tempo.(la penna la metto nel cassetto e penso che permanga nel tempo).
Come istituiamo le relazioni? Paragonando tra loro o idee, o impressioni e idee, o impressioni ed
impressioni.
Stabilendo una relazione formuliamo un giudizio; per alcune di queste relazioni il giudizio è
certo, dimostrabile. Vuol dire che il giudizio non è possibile che sia falso. Es. Se io dico che l’idea
di a assomiglia a b, questo giudizio deriva dall’impressione di a e di b, la somiglianza non è più
confutabile . Nel momento in cui io ho l’idea di due oggetti posso stabilire una somiglianza senza
aver bisogno di impressioni.
Lo stesso vale per la gradazione nella quantità, nella qualità o la contrarietà.
Invece negli altri casi i giudizi fanno riferimento a una conoscenza probabile: es. spazio-tempo,
per istituire due relazioni spaziali es. La bottiglia è sul tavolo, non basta l’idea di bottiglia e di
tavolo, devo sperimentarlo, ed è una conoscenza probabile (la bottiglia può essere sul tavolo o no)
La stessa cosa per quanto riguarda l’identità, intesa in modo diacronico: es. La penna di oggi e
un’altra tra un anno (devo ricostruire una serie di altre informazioni).
E poi causa ed effetto che vedremo nei dettagli.
Conoscenza certa e determinata: è una deduzione? Non è certo, probabilmente no. La
conoscenza certa e determinata può essere stabilità in relazione alle idee e la nostra definizione di
deduzione non riguarda questo concetto. Lui dice che la conclusione certa non può essere negata,
pena la contraddizione. (io non assocerei analitico e sintetico di Kant). Se noi stiamo alla lettera non
è una deduzione, ma se lo leggiamo che se noi non possiamo negare la conclusione se accettiamo le
premesse allora sarebbe una deduzione (è una questione spinosa).
La conoscenza probabile è di tipo induttivo? Nell’induzione non è la conclusione il problema.
Cmq l’importante è non sovrapporre automaticamente deduzione e induzione a conoscenza
certa e probabile.

7.4.2021
La relazione avviene attraverso un confronto tra idee o relazioni e idee. Tra queste alcune relazioni
hanno la capacità di stabilire una relazione forte tra idee e queste sono i principi di associazione.
Tuttavia solo l’associazione di causalità permette di passare tra l’idea o impressione di qualcosa che
non è presente a un’idea o impressione che non è presente. Avevamo visto il ragionamento certo e
probabile, non è chiara la sovrapposizione tra ragionamento deduttivo e induttivo come lo
intendiamo noi.
Le relazioni spaziotemporali vd slide le relazioni spaziotemporali sono contingenti, l’unico modo
per evitarlo è presumere una relazione causale. Ma questo è un punto che dobbiamo vedere.
Slide: kind of attraction . C’è una sorta di attrazione che avrò effetti nel mondo mentale
straordinari come nel mondo naturale. Per quanto riguarda le sue cause esse sono sconosciute e
devono essere ricondotte alle qualità originarie della natura umana che io non fingo di spiegare.
Questo ci ricorda la legge di gravitazione. Il più potente dei principi di associazione è quello
causale.
Slide tradotta dalla prof. Newton scholium generale dei Principia: c’è il problema di ridurre la
forza di gravità all’interazione meccanica. All’inizio il meccanicismo si oppone allo schema
newtoniano, come abbiamo visto Newton darà origine al meccanicismo 2.0 si può dire. Alla fine
dice “ non fingo alcuna ipotesi” perché sono ipotesi quelle cose che non derivano da fenomeni e
queste ipotesi non hanno alcun ruolo nella filosofia sperimentale. Questo suona strano e
problematico, qui probabilmente vuol dire che una mera ipotesi che non può essere confermata da
fenomeni non può essere presa in considerazione dalla filosofia naturale.
Torniamo a Hume: problema dell’inferenza causale. Le conoscenze probabili ovvero sui dati di
fatto non possono essere ottenute a priori, ovvero non possono essere ottenute intuitivamente né per

13
ragionamento a partire dalle sole nostre idee. Qualsiasi successione causale può essere messa in
dubbio: es l’urto delle palle di bigliardo noi possiamo immaginarlo diverso e non contraddittorio.
Esempio del pane: ci aspettiamo che cose simili avranno effetti simili: tutti i pezzi di pane che ho
mangiato nel passato sono stati nutrienti e buoni e lo saranno anche in futuro, ma non ci sono
garanzie al riguardo. Si parte da una successione avvenuta in passato per inferire qualcosa che non
percepisco.
Lui elabora delle critiche al linguaggio classico per parlare di causa ( si vuole allontanare la
concezione della causalità legata alle proprietà di tipo aristotelico). Di per sé le proprietà non
spiegano. E’ un concetto che tornerà in tutto l’800, se io dico che l’acqua disseta perché ha il potere
di dissetare non ho dato una spiegazione. Esaminando le proprietà di qualcosa non posso inferire gli
effetti. I poteri non sono percepibili: questa idea di potere non è chiara (lo dimostrerà in pagine e
pagine), l’idea di potere non passa attraverso i sensi. L’unico modo per parlarne è inferirli è che
dobbiamo presupporre che la natura rimanga costante. Quindi quando notiamo queste regolarità
presenti in natura non sappiamo da dove vengono questi poteri misteriosi.
Hume non nega che inferenze da fatti passati a futuri non siano vere, ma lui vuole sostenere che
non sono frutto di un ragionamento.
Le ragioni sembrano essere di due tipi: a volte afferma che il corso della natura potrebbe
cambiare, altre volte afferma che la nostra percezione potrebbe potrebbe ingannarci. Nel primo
caso regolarità di tipo naturale che c’erano in passato potrebbero non esserci più in futuro, nel
secondo senso che noi potremmo esserci sbagliati. Sono due discorsi diversi, la seconda è dovuta ad
un errore, la prima non la possiamo escludere. (attenzione all’etichetta humiana come negatore
assoluto del concetto di causa, in realtà ha una posizione più complessa).
Neanche ci aiuta un ragionamento probabile: c’è una presunzione che il corso della natura non
vari. Ma da cosa dipende questo principio? Non posso provarlo in via dimostrativa perché posso
concepire che la natura si comporti in modo diverso. Inoltre se io dico che la natura di comporterà
come ha fatto nel passato, abbiamo una circolarità perché applichiamo il concetto di causa

La soluzione scettica di Hume:


Ci sono due domande: come svolgiamo l’inferenza causale? cosa giustifica l’inferenza causale?
L’inferenza causale poggia sulla successione ripetuta di comportamenti. “ costume o habit”, non lo
voglio chiamare abitudine (c’è un appello all’autoevidenza). L’abitudine a vedere il calore seguire
alla fiamma ci porta ad associare per il futuro questa relazione.
Se la mente si trova a fare determinate esperienze, inevitabilmente giungerà a certe credenze. C’è
un vincolo: la credenza si innesca sola a partire da memorie di fatti (che so continuare ad
esistere) o da impressioni presenti. Un conto è pensare la relazione causa ed effetto un conto è che
si generi la credenza che parte solo da impressioni. Questo vuol dire che la credenza è qualcosa in
più che si aggiunge in particolari condizioni.
Il problema è che cos’è la credenza?
Se non partiamo da dati di fatto osservati o ricordati i nostri ragionamenti sono puramente ipotetici
e dunque non danno origine a credenze.
Con l'immaginazione possiamo pensare oggetti e sequenze alternative del tutto credibili
collocandoli anche nello spazio e nel tempo, però a tali idee non associamo alcuno stato di
credenza. E quindi in cosa consiste la credenza?
La mente ha il potere di associare liberamente idee qualsiasi, ma la credenza non è in nostro
potere o si forma o non si forma. Quindi la credenza non è un’idea ma un sentimento, cioè se ci
troviamo in una certa situazione sorge in noi il sentimento di una credenza. La credenza per Hume è
un sentimento rispetto a cui non ho nessun potere (questo non vuol dire che non può essere rivisto
lo stato di credenza, ma non a mio piacimento).

14
Differenza tra finzione e credenza
Come ogni sentimento non può essere definito, possiamo solo tentare di descriverlo. La
credenza è qualcosa che la mente sente,e le idee che si accompagnano a credenze sono concepite in
modo più intenso e hanno maggiore influenza sulle nostre azioni e decisioni.

Armonia prestabilita
E’ un passaggio che dà una torsione agnostica al concetto di Hume di causa. Per la sopravvivenza
come specie è importante che vi sia l’abitudine e l’attitudine a credere tra la corrispondenza delle
nostre idee e la natura. Qui si intravede la possibilità di giustificare le nostre credenza, non in
maniera dimostrativa, ma qui si intravede una giustificazione non sono psicologica ma in maniera
un po più forte. Se noi stabilissimo le relazione di causa per ragionamento saremmo troppo lenti.
C’è un accenno (alcuni hanno visto in Hume elementi evoluzionistici).

8.4.2021
Una differenza tra trattato e ricerca è che il primo è molto più particolareggiato, leggendo la ricerca
uno può avere l’impressione di una certa faciloneria, ma non è così. Nella ricerca lui riduce all’osso
e quindi si può avere l’impressione di una certa ingenuità ma non è così.
Domanda: il caso per Hume è l’assenza della causa, è la contrarietà rispetto alla causa. Quindi se la
causa non è nient’altro che una connessione costante che noi abbiamo individuato nel passato,
parliamo di caso quando non individuiamo queste connessioni costanti. Lui fa riferimento alla tesi
popolare all’epoca è che se non abbiamo una relazione di causa effetto per un evento è solo per un
difetto o di ignoranza o di limite nell’individuare le cause. Lui sembra asserire che ogni evento è
dentro una relazione di causa ed effetto e questo sembra andare oltre il confine empirista. Lui
sembra asserire una posizione apertamente determinista. Inoltra abbiamo visto la teoria
dell’armonia prestabilita, in cui c’è un riferimento a qualcosa che va oltre il confine empirista. Io
prenderei con le pinze l’affermazione all’inizio della sezione 6.
Hume pur essendo empirista era di spirito pratico e versatile e può arrivare a dire che ci sono
credenze accettabili anche se non pienamente giustificabili.
Relazione tra i tre principi di associazione
Tra le 7 relazione tre danno origine ad un associazione di idee più forte. Cosa c’è in comune tra
queste tre? La causa presuppone una contiguità spaziotemporale (nel trattato la sua analisi è più
articolata) e inoltre per poter stabilire la ripetizione noi dobbiamo stabilire una relazione di
somiglianza (questo sarà criticato da Popper): quindi cause simili producono effetti simili. Quindi
le tre relazioni sono collegate tra di loro. Il principio di associazione casuale può agire solo dopo
che abbiamo stabilito relazioni di somiglianza e relazioni spaziotemporali.
Solamente la relazione di causa è l’unica che ci permette di passare dalla memoria di qualcosa a
qualcosa che non è presente, alla credenza che si verificherà un effetto.

Necessità
La relazione di causa i conduce oltre e ci fa fare delle previsioni a differenza delle altre relazioni. La
relazione di somiglianza è necessaria secondo Hume. Le relazioni spaziotemporali non sono invece
necessarie. Dobbiamo chiederci se la relazione di causa sia necessaria oppure no. Ci sono due
diversi giudizi di necessità:
1) non possiamo pensare A senza pensarlo causa di B; questo è negato da Hume perché abbiamo
bisogno dell’esperienza e non possiamo saperlo a priori.
2) se A è causa di B (questo ce lo dice l’esperienza) allora dato A è necessario che sia B o viceversa.
Questo sembra essere affermato da Hume. (per adesso ignoriamo la causa imperfetta e parliamo
solo di relazioni necessarie). Bisognerà capire in cosa consiste questa necessità o il potere o la
forza noi non la percepiamo (è un problema per gli empiristi anche del 900).

15
Idea di connessione necessaria
Il metodo della definizione.
Dobbiamo capire se l’idea a cui si riferiscono i termini è semplice o complessa. Infine bisogna
ricondurre ogni idea semplice alla corrispettiva impressione sensibile. Questo tornerà nel
neopositivismo-verificazionismo. Per essere sicuri che un termine abbia un significato occorre
ricondurlo alle impressioni sensibili. Noi non possiamo approfondire il tema delle idee astratte che
esamina nel trattato.
Idea di connessione necessaria: i termini potere, forza e connessione necessaria sono associate a
idee oscure. Se noi applichiamo il metodo delle definizioni non riusciamo ad arrivare alle
impressioni. Prima lui cerca di vedere se è possibile ricondurre queste idee a qualcosa che noi
percepiamo sensorialmente e la risposta negativa. Poi prova a vedere se queste idee derivano dalle
riflessioni sulle operazioni della mente. Allora lui prova a vedere quali sono le operazioni interne:
innanzitutto il potere di muovere parti del corpo attraverso atti di volizione; ma anche abbiamo un
potere sulle nostre idee fissando la nostra attenzione su un’idea. Sono questi due poteri che ha la
nostra mente.
I presupposti del suo argomentare non sono esplicitati:
1 se noi conosciamo il potere di qualcosa vuol dire che noi conosciamo l’effetto che una certa cosa
produce.
2 se noi potessimo conoscere il potere che una cosa ha potremo passare dalla conoscenza della cosa
ai suoi effetti .
3 la conoscenza del potere ci deve consentire di sapere come la causa sortisca l’effetto (questo terzo
elemento verrà messo in discussione da altri filosofi).
Noi non percepiamo mai poteri, energie e forze, semplicemente osservando le cose. Vedendo il
duoco non possiamo prevedere che cosa farà.
Le qualità che osserviamo sono complete in se stesse e non ci indicano mai effetti che da essi
possono conseguire. Tutto ciò che l’esperienza ci fornisce è la successione regolare di determinati
fenomeni.
L’origine della necessità non sta nei poteri o forze che noi non percepiamo quindi.

Idea di connessione necessaria: noi siamo coscienti delle capacità che abbiamo di produrre un
movimento. Noi non sappiamo come il mio atto di volizione muove il braccio. Lui parla di sostanza
spirituale perché in quegli anni si incomincia a parlare di elettricità, come una sostanza capace di
collegare gli atti volitivi al corpo. Lui dice che anche ammettendo che esistano queste sostanza
spirituali cmq non sappiamo come agiscono e quindi non risolviamo il problema.
La volontà poi ha potere solo su alcune parti del corpo es. non sul cuore e il fegato e non sappiamo
il perché.
Gli studi di anatomia ci rendono noto che il movimento di una parte del corpo è mediata dal
coinvolgimento di molte parti intermedie, ma questa serie non è trasparente alla nostra coscienza.
Quindi noi spezzeremo il tutto in una serie di connessioni causali che ottengo dall’esperienza.

Visto che il versante del movimento non ci aiuta vediamo il versante delle idee: di fatti noi
sentiamo solo il presentarsi dell’idea ma non come avviene. Inoltre anche il potere della mente è
limitato, per esempio sulle passioni o sui desideri (non sappiamo perché).

Occasionalismo
A questo punto lui spende un po di pagine sull’occasionalismo. Il target è Malebranche (è dibattuto
se Cartesio sia un occasionalista ma molti cartesiano hanno sostenuto questa tesi. La tesi risale a Al
Ghazali (11 sec.). Una delle origini è di riuscire ad armonizzare la possibilità dei miracoli con la
coesistenza di fenomeni naturali e mentali. Se il mondo naturale è dominato da relazioni causali Dio
non potrebbe intervenire per sovvertire il corso dei fenomeni. Ci sono due soluzioni:

16
1 rifiutare che la connessione causale sia necessaria
2 sostenere che non esistono cause naturali.
Si dividono due posizioni occasionalistiche.
Occasionalismo integrale: l’azione causale è necessaria ma è svolta unicamente da Dio
(Malebranche).
Occasionalismo parziale: ci sono eventi che sono determinati dalla natura ma non sono
necessarie...vd slide (?) non ci sono problemi per i miracoli.
In realtà ci sono molti punti in comune tra Hume e gli occasionalisti, perché condividono l’idea che
esista una causalità di tipo classico in natura.

14.4.2021

Idea di connessione necessaria


Questo concetto viene prima affrontato con l’analisi della nozione di potere,ma abbiamo visto che
non si riesce a fondare la nozione di necessità su questa base.
L’idea di potere e di connessione necessaria non derivano dalle impressioni ma dall'impressione
interna che il sentimento interno ci obbliga a pensare. Questo sentire, una forzatura della mente,
forma in noi l’idea della connessione necessaria. È qualcosa che si ingenera a partire da
un’esperienza ripetuta che attraverso l'abitudine genera l’idea della necessità.
Definizione di causa: una causa è un oggetto seguito da un altro oggetto quando tutti gli effetti
sono seguiti da oggetti simili al secondo.
In altre parole ove se il primo oggetto non si dà, non si dà nemmeno il secondo (questo è un
passaggio indebito dal punto di vista logico; per noi la relazione di causa non è sempre di più e H
non affronta le condizioni alle quali un oggetto ha un effetto). Per lui non si dà l’effetto se non si dà
la causa. Si possono dare le cause senza che vi sia l’effetto? Si ma solo perché noi ignoriamo degli
elementi che agiscono come cause tra di loro e che possono impedire a una causa di sortire il suo
effetto.
Un oggetto seguito da un altro oggetto e il cui presentarsi porta sempre il pensiero dell’altro
oggetto. Questo può sembrare strano…

La casualità
La causalità si presenta mescolata con la casualità, non sempre riusciamo a determinare connessioni
necessarie di questo tipo. Cos’è il caso allora? Si possono individuare tre gradi diversi di evidenza:
knowledge: evidenza ottenuta esclusivamente per confronto delle idee.
proofs: la conclusione è accompagnata dalla connessione certa di cause ed effetti.
probability: evidenza è ottenuta dalla connessione da un certo grado di incertezza.
Le prime due danno luogo a evidenza certe. Questa distinzione è diversa da quella vista prima.
Il caso non è altro che l’assenza della causa: causa e caso sono contrari. L’influenza del caso sulla
mente è contraria a quella della causa: la causa determina la mente a passare da un’impressione
all’idea della causa o dell’effetto; il caso non determina la mente a compiere alcun passaggio.
Il caso è essenzialmente indifferente, nel senso che non determina nella mente alcun passaggio.
Come facciamo a determinare la probabilità? Questa è la cd probabilità rispetto al caso, noi oggi
diremo eventi che hanno un andamento stocastico come un lancio di dadi. Come facciamo a
decidere su un esito piuttosto che su un altro?
La casualità (slide del trattato in inglese): una perfetta e totale indifferenza è essenziale al caso e
non può essere superiore o inferiore a un’altra. La risposta è che la valutazione delle probabilità può
derivare unicamente da un mix di causalità e casualità, vale a dire assenza e presenza di
determinazione nella mente. Nel caso di un dado conosciamo alcune relazioni causali per es. so che
se li lancio cadono e che si fermano con una sola faccia e non sullo spigolo. Queste sono

17
connessioni causali determinate (proofs) su cui non abbiamo dubbi. Tuttavia non c’è nessuna
relazione causale che ci dica su quale faccia cadrà.
La causalità (slide in inglese):noi abbiamo un’impressione di una causa es. il lancio di un dado,
questa impressione genera in noi una certa forza che determina un impulso nella mente a passare
non a una ben precisa faccia ma su tutte le facce; ciascuna faccia riceva una parte della forza
dall’immagine e in generale concludiamo che una faccia risulterò dal lancio ma non quale.
La mente vede i 6 possibili esiti ma rimane come paralizzata quanto abbiamo eventi su base
stocastica.
Adesso vediamo un caso diverso:su quattro facce vi è il numero 3 e su due facce il numero 6, la
mente sembra determinata a concludere che il numero 3 ha il doppio di possibilità di uscire del
numero 6. Come mai la mente si determina in questo modo? La situazione è uguale a quella di
prima, però se la mente considera i numeri segnati la situazione cambia. Cosa cambia?
La causalità (slide in inglese): gli impulsi, prima divisi , si riuniscono su un’unica figura (il 3): se la
questione riguarda non la faccia ma la figura è evidente che l’impulso si riunisce in una sola figura ;
è una forza che si sbilancia. Gli impulsi si annullano ma non con una sicurezza totale perché i due
impulsi opposti annullano una parte della forza ; è come se si provasse una sorta di opposizione.
Quindi scommetteremo sulla figura 3, anche se non abbiamo la certezza che esca la figura 3.
Noi sicuramente abbiamo l’incertezza in eventi di questo tipo, ma l’incertezza riguarda anche la
probabilità delle cause e questo si verifica quando non sempre ad una causa si verifica lo stesso
effetto. Lui dice che in questa ipotesi è l’ignoranza ad agire perché non conosciamo tutte le cause.
Cosa accade quando abbiamo una situazione si quest’ultimo tipo? Ragioniamo come ragioniamo
per il caso, succede la stessa cosa. Quindi noi ci formiamo un giudizio di causalità non necessario
ma probabile. Forse non c’è una differenza tra caso e conoscenza probabile, perché è sempre
dovuto all’ignoranza (abbiamo visto Laplace); lui non dice apertamente questo e distingue le due
trattazione (la trattazione della chanche e la causa probabile distinguendo la situazione, anche se
sorge il dubbio se ci sia posto per la chanche; lui non si sbilancia, ma di fatto la causalità non è mai
probabile).

15.4.2021
John Herschel (1792-1871)
Nell’800 emerge l’aspetto del pensiero induttivo, la filosofia della scienza è influenzata dalla
questione del metodo, e in particolare del metodo induttivo. Un aspetto che rimane costante è un
forte riferimento a Bacone. Figlio di un famoso astronomo e scienziato William e cresce nel suo
laboratorio; William è noto per l’osservazione del pianeta Nettuno che era stata prevista (vd
manuale). E’ un evento straordinario, è una conferma a posteriori della teoria di Newton. Il tema
delle conferme sorprendenti attraversa l’epistemologia dell’800. H studia matematica e i suoi primi
articoli sono in questo ambito anche se il suo interesse prediletto rimase l’astronomia (egli studiò
l’orbita delle stelle doppie, cercando di estendervi la teoria di Newton); si è occupata dell’idraulica,
la chimica, fotografia (tecnica cianografica).
Egli compose un testo di filosofia della scienza; “discorso preliminare sullo studio della filosofia
naturale” (1830) ed è suddiviso in tre parti:
1)la natura generale e i vantaggi delle scienze fisiche.
2) i principi su cui poggia la scienza fisica e le regole per mezzo di cui un esame sistematico della
natura deve essere condotto.
3) la suddivisione della fisica nei suoi rami.
Io espongo principalmente la seconda parte ( la terza parte parla dello stato della scienza dell’epoca
e della prima parte vedremo un argomento).
Prima parte: il rapporto tra scienza e religione. H è un uomo di fede per tutta la vita e per lui la
conoscenza scientifica è un fattore positivo per la fede. Man mano che aumentiamo la nostra
conoscenza della natura conosciamo un ordine razionale delle cose e se anche ci sono cose che non

18
comprendiamo, ciò ci spinge solo a considerare l’infinita grandezza del produttore. Lui tuttavia
spende molte pagine per sostenere che affinché la scienza possa svolgere questo ruolo, la scienza
deve mantenere la sua autonomia di metodo. Il metodo scientifico non deve mescolarsi con
pregiudizi con l’obiettivo di compiacere ciò che è scritto nelle scritture. Il metodo serve a
salvaguardare l’indagine scientifica da possibili intrusioni esterne. In quest’epoca nasce la teologia
naturale (attraverso la conoscenza della natura si può conoscere Dio).

Gli elementi fondamentali del suo metodo


Si parte dai singoli fenomeni e si arriva alle leggi generali, il metodo consiste nel ricollegare i
diversi fenomeni che osserviamo in leggi, che a loro volta saranno collegate da leggi più generali. Si
parte dai fenomeni che si ottengono dall’esperienza o ancora meglio dagli esperimenti, che sono
vantaggiosi (sono più liberi e li posso riprodurre).
Le leggi empiriche: l’esempio più tipico sono le leggi di Keplero, sono le prime leggi che noi
riusciamo a elaborare sulla base di un tipo preciso di dati. Poi abbiamo il tentativo di generalizzare
le leggi. Il passaggio dalle leggi empiriche a quelle più generali non significa che riguardano
semplicemente (può accadere) più fenomeni, ma comporta un ulteriore salto di elaborazione; le
leggi generali sono di tipo più ampio e ricoprono fenomeni di tipi diversi. La legge di gravitazione
è una legge generale in questo senso, mentre quelle di Keplero sono applicazioni di essa.
Domanda: H (che si muove nell’ambito dell’empirismo di Hume) rispetto a Hume ha fiducia nel
metodo induttivo come in grado di dirci qualcosa sul mondo; i presupposti sono diversi anche per il
discorso sulla religione di cui dicevamo.
Poi abbiamo le leggi ultime, che probabilmente non arriveremo mai a conoscere.
Lui si pone il problema se si possono percepire le forze ( per Hume assistiamo a una successione di
fenomeni e non comprendiamo come agisca la nozione di forza-potere e non riusciamo a
percepirla): egli dice che di fatto noi sperimentiamo la forza es. se premiamo le mani una contro
l’altra , e dopo un po proviamo stanchezza e quindi c’è uno sforzo, cioè l’applicazione di una forza
e quindi sostiene che noi percepiamo la forza (la forza non è il potere di cui parla Hume, è qualcosa
di più povero, ha la sua base nella nostra esperienza). Noi cmq, come Hume, non comprendiamo le
leggi ultime che governano queste forze.

Nozione di causa
E’ una nozione complicata.
Le cause prossime sono indicate o quando si parla delle leggi empiriche o quando si parla di cause
direttamente osservabili (non è chiaro fino a che punto H possa parlare di cause non osservabili (?)).
Le cause ultime in senso relativo sono le più generali cui possiamo giungere; le cause ultime in
senso assoluto sono ritenute non conoscibili (non è un’inconoscibilità in linea di principio).
Le cause vere poi sono una nozione spinosa: (Newton usa questa nozione spesso) sono le cause
considerate reali e sufficientemente generali per coprire i fenomeni che io intendo spiegare.
Slide in inglese sulle vere cause: sono cause vere e non mere ipotesi della mente. Lui fa l’es. dei
fossili delle conchiglie sulle montagne; sono state fatte varie ipotesi, secondo alcuni c’è una
capacità plastica del terreno, secondo altri alla fermentazione, per altri ai corpi celesti, per altri al
passaggio dei pellegrini con le capesante (simbolo dei pellegrini),altri agli uccelli che si
nutrirebbero dei molluschi e secondo tutti i geologi moderni a veri molluschi e al cambiamento del
livello dei mari.
Lui dice che l’ipotesi dei corpi celesti e della plasticità fanno parte delle finzioni della fantasia; il
trasporto dei pellegrini è una causa reale e può rendere conto di qualcuna osservazione ma non è
sufficientemente ampia come spiegazione. Anche la fermentazione è una causa reale ma non è una
causa vera della produzione di conchiglie. Mentre l’ultima ipotesi è stata osservata ed è la vera
causa, che è osservabile e in grado di spiegare i fenomeni che vogliamo spiegare. La nozione di

19
vera causa è fondamentalmente epistemologica, include anche il concetto di estensione ( es. dei
pellegrini).

Lui enuncia 5 regole di ragionamento, che riprende da Bacone.


Io ve le presento (non dobbiamo impararle a memoria). Lui presenta prima 5 regole e poi 5 principi
di ragionamento che sarebbero tratte da queste regole ( la correlazione non è sempre chiara e
nell’esempio a volte si riferisce alle regole e volte ai principi).
1 occorre individuare connessioni invariabili e sono interessanti quelle che fanno pensare a una
connessione causa effetto (qui c’è una nozione chiara di causa sufficiente).
2 si riconosce la possibilità che diverse cause possono produrre lo stesso effetto (ipotesi non
considerata da Hume).
3 incremento o diminuzione dell’effetto con l’aumento o diminuzione della causa.
4 proporzionalità dell’effetto rispetto alla causa in tutti i casi in cui la causa possa agire senza
impedimento (è un affinamento della terza regola)
5 inversione dell’effetto con l’inversione della causalità

I 5 principi di ragionamento:
1 se in un gruppo di fatti una proprietà peculiare è opposta o talvolta manchevole non può essere la
causa.
2 ogni circostanza rispetto alla quale tutti i fatti sono in accordo potrebbe essere la causa e se poi ad
essere comune a tutti i fenomeni che osserviamo ve ne è una sola allora lui dice che è la causa (qui
il problema è dimostrarlo).
3 non possiamo negare l'esistenza di una causa a favore dei quali abbiamo forti dati osservati anche
se non la comprendiamo (l’evidenza empirica è il giudice ultime).
4 dati opposti e contrari sono tanto illuminanti e utili quanto le istanze positive.
5 la causa spesso emerge da dati che riguardano l’accordo di variazione in intensità anche se
bisogna sempre tener conto delle possibili cause contrarie.
Esempio
La fase preliminare della ricerca è definire con estrema precisione che tipo di fenomeno noi
cerchiamo le cause es. a noi interessa la causa delle rugiada notturna e va distinta dalla rugiada
per la presenza di nebbia.
Poi bisogna cercare di trovare fenomeni tra loro analoghi es. si forma umidità sul metallo se noi vi
respiriamo, quando si forma condensa sul fondo di un bicchiere freddo con un liquido caldo,
quando si forma condensa sulle finestre quando l’aria si rinfresca. Tutti questi fenomeni presentano
un accordo, e abbiamo una prima ipotesi cioè che l'oggetto si ricopra di umidità quando risulta
freddo rispetto all’aria con cui è in contatto.
Tuttavia potremo subito sollevare dei dubbi, perché dei corpi esposti di notte devono essere più
freddi dell’aria circostante? Però le analogie sono troppo forti (3 regola). Escogitiamo un
esperimento, mettiamo un termometro a contatto con il corpo e l’esito di questo esperimento è
sempre positivo (la superficie del corpo è più fredda dell’aria circostante). Abbiamo trovato una
circostanza concomitante (ogni volta che c’è l’una c’è anche l’altra) ma ci manca l’elemento per
dire qual è l'effetto e quale la causa e quindi dobbiamo collezionare ulteriori fatti sia attraverso le
osservazioni che l'esperimento.
Conviene anche valutare le circostanze contrarie quando non si deposita rugiada o se ne deposita
poca (4 regola). Non si produce sul metallo lucido, ma sul vetro lucido ed è presente sulle superfici
sia rivolte all’alto che sul basso e quindi non cade dall’alto ed è nell’atmosfera. Questo ci permette
di evidenziare una scala di intensità a seconda del materiale che usiamo: dei corpi con superficie
lucida i corpi che si ricoprono maggiormente di rugiada sono quelli che conducono meno il
calore e questa è una prima regola empirica. Tuttavia la ruvidezza interferisce con questa legge e
dobbiamo provare un nuovo esperimento e si prendono dei corpi con lo stesso materiale ma con

20
superfici diverse (regola 5) : così individuiamo una nuova legge empirica, più una superficie è
ruvida ha superficie maggiore e quindi disperde calore maggiormente della superficie liscia.
Abbiamo quindi individuato due leggi dello stesso livello.

16.4.2021

Noi abbiamo messo in relazione la conformazione della superficie con la rugiada e anche questa è
una legge di tipo empirico senza spiegazione teorica alle spalle ed è la nostra seconda legge
empirica.
Poi si notano altri fatti: è rilevante il tipo di materiale e quindi con un altro esperimento
esponiamo corpi diversi e scopriamo che si ricoprono maggiormente di rugiada le sostanza che sono
impiegate nel vestiario (conducono male il calore); sono superfici che esternamente sono fredde e
internamente calde.
Poi vanno controllate le istanze negative : quando il cielo è nuvoloso e qualsiasi schermo sono
cause contrarie.
Ora abbiamo collezionato molti fatti e leggi empiriche e dobbiamo metterli insieme per creare un
quadro più ordinato: vd slide giungiamo alla causa prossima generale: il raffreddamento della
superficie per radiazione, non controbilanciato da una restituzione di calore diviene più fredda
dell’aria circostante e causa la condensazione della umidità (c’è uno scambio tra il corpo e
l’ambiente esterno).
Nel manuale si sottolinea l’alternanza tra fase induttiva e deduttiva (ma questo è un po generale per
tutti possiamo dire).
Tutta questa parte va ad illustrare il passaggio tra i fatti e le osservazioni empiriche. Il processo
continua e l’ambizione è arrivare a leggi sempre più generali. Lui prende le leggi empiriche
come nuovi dati da cui partire. La formazione della rugiada si riferisce a due fenomeni più
generali la radiazione del calore e la condensazione del vapore, le cause della prima richiedono
una causa superiore e sono sconosciute (non c’era gli atomi); la seconda forma una branca della
ricerca fisica fino a raggiungere un fatto ultimo, che sono relativi all’analisi che è stata fatta. Noi
dobbiamo ritenere che i fatti sono spiegati per quanto riusciamo e quindi dobbiamo considerarlo
spiegato (il che non vuol dire che si ferma l’analisi, ma qui la nozione di spiegazione non significa
aver individuato tutte le cause possibili).
A me premeva sottolineare questo concetto di spiegazione come analisi e più volte H traccia
un’analogia con la chimica, che è meno conosciuta come storia. In questo periodo la chimica fa
passi da gigante (tavola periodica), c’è la forte idea secondo cui la tavola degli elementi non è data
una volta per tutte. H traccia un parallelismo tra quello che sta avvenendo in chimica e quello che
avviene nell’avanzamento delle conoscenze.
Il processo induttivo deve essere portato avanti cercando di estendere quanto più possibile le leggi
scoperte a fenomeni diversi da quelli per cui sono state introdotte. Questa generalizzazione richiede
una verifica continua. Non basta la semplice estensione che possono apparire analoghi, bisogna
cercare di verificare il funzionamento delle leggi in circostanze estreme, tentando in ogni modo di
falsificarle ( c’è chi ha proposto un parallelismo con Popper ma è dubbio). Lui fa riferimento alla
pompa a vuoto per verificare la tesi di Galielo e questo significa verificare una circostanza estrema.
Particolare rilievo va dato alle correlazioni matematiche (a me ha sempre colpito la variazione
allelica di Mendel).
A un certo punto H dice che in fin dei conti è che ciò che a noi interessa è che le nostre ipotesi
vengano confermate ( a prescindere da come ci vengono in mente, l’ipotesi può partire da pochi
casi). Questo ha fatto pensare ad alcuni critici ad un Popper ante litteram (al metodo ipotetico-
deduttivo): per me non è proprio così. Io non penso che H liberalizza come si formulano le
ipotesi.

21
Teorie
Le leggi empiriche funzionano da fatti nuovi per un nuovo processo induttivo e dobbiamo
individuare una causa che agisce nella legge.
Nel formulare una teoria dobbiamo considerare le cause, che non devono essere assunte in maniera
arbitraria e dobbiamo avere buone ragioni perché esistano in natura o la cui presenza possa essere
dimostrata in modo inequivocabile (possono essere considerate le vere cause).
Le leggi di correlazione non ci danno le cause ma sono tollerabili solo a livello empirico a un primo
livello e salendo a un livello più alto noi vogliamo le cause. La nozione di forza è considerata una
causa vera realmente esistente.

Domanda: istanze crucis: l’esempio è quello della natura ondulatoria della luce che spiega meglio
alcuni esperimenti sulla teoria corpuscolare. Nella concezione di Bacone basta un esperimento per
dare ragione a una teoria, è un caso particolare di falsificazione. Questi autori citano
l’experimentum crucis, e in questo caso la falsificazione derivano da questa situazione in cui ci sono
due teorie rivali. Ma storicamente nessun singolo esperimento ha decretato la vittoria della teoria
ondulatoria sull’altra, ma più esperimenti che hanno portato la comunità scientifica ad appoggiare la
teoria ondulatoria. Le circostanze estreme non si identificano con l’experimentum crucis, se io testo
una teoria non è detto che io la testi contro un altra teoria.

William Whewell
Vd biografia e opere
Da importanza alla storia della scienza e secondo lui il metodo scientifico doveva trovare conferma
in una puntuale conferma dello sviluppo delle scienze.
Questi tre autori inventano neologismi in maniera sistematica andando a pescare in lingua greca o
latina, questa per lui è una questione importante perché permette l’uso dei termini in senso molto
tecnico, con una definizione molto precisa ed è un aspetto fondamentale per il progresso della
scienza. Gli scienziati chiedono consigli a W su quali termini impiegare (dielectric, scientist (deriva
da uno scambio con Coleridge; ai suoi tempi si chiamavano filosofi naturali. Il filosofo della natura
non è un filosofo e lui prendendo come archetipo la parola artist conia scientist e physicist),
physicist.
Lui poi introduce il pliocene, miocene e eocene per cui le nomenclature delle epoche è stata forgiata
a partire da questa. Poi anotodo e catodo e ione, osmosi e conduttività.
Queste parole devono essere precise nel loro significato e si possono chiamare termini tecnici vd
citazione in inglese. Quindi l’introduzione di termini tecnici è fondamentale e lui svolge questa
attività di fornitore di neologismi.

21.4.2021
vd le due opere principali. È un accanito empirista come tutti i tre che vediamo, però non è radicale
come gli altri due perché ritiene che le fonti della conoscenza sono due con esiti non empiristi.
Riconosce una componente ideale che chiama soggettiva e che è costituita dalle idee
fondamentali; poi abbiamo la componente empirica costituita dalle percezioni. Lui critica quelle
filosofie che hanno estremizzato queste componenti; lui cita Kant(razionalista) e Locke (empirista)
come autori agli antipodi.
Le idee fondamentali: egli ritiene che tutte le nostra osservazioni sono frutto di esperienze non
coscienti a partire dalle idee fondamentali, sono dei principi che danno ordine alle nostra sensazioni,
creano delle relazioni. Lui non da una tavola delle idee, ne cita alcune (spazio, tempo, causa ,
sostanza) ed è convinto che se ne potranno scoprire di nuove. Lui ritiene che le varie branche della
scienza hanno alla base un’idea fondamentale e dice che quando si scopre una nuova branca
della scienza si scopre un’idea fondamentale. Lui parla di effetto inconscio. Queste idee fanno
parte di come è costruita la nostra mente, non parliamo di un inconscio freudiano, ma è un

22
approccio moderno. Le idee regolano il funzionamento della nostra mente e non derivano
dall’esperienza. Lui usa un’espressione che avrà molto seguito nel 900 : poiché la nostra
conoscenza si basa su queste idee, tutta l’osservazione è idea-leaden, mentre nel 900 si usa
l’espressione “carica di teoria”(theory leaden). In parte lo aveva detto Kant, ma la prospettiva è
diversa perché secondo W possiamo conoscere il mondo.
Perché noi se abbiamo una componente soggettiva così forte possiamo essere sicuri che ci conduca
a una conoscenza del mondo. La spiegazione è teologia: le idee fondamentali sono poste nella
nostra mente da Dio e funzionano sia come principi che regolano la nostra mente e sia come
principi ordinatori del cosmo. Le idee fondamentali ben nascoste nella nostra mente, in realtà
rappresentano tratti del mondo che sono dipendenti dall’azione creatrice di Dio. Le idee sono
qualcosa di misteriose, non come K che le tirava fuori. Le idee le dobbiamo a poco a poco scoprire:
le conception sono delle regole generali che sono associate alle idee fondamentali. Man mano che
noi raffiniamo la conoscenza delle nostre idee, raffiniamo la conoscenza del mondo. Questo non
significa a che la scienza diventa da “poltrona” perché subentra l’aspetto induttivista. L’unico
modo per scoprire le idee è utilizzare il metodo induttivo.

Il metodo induttivo
Il metodo induttivo è costruito in due fasi e la seconda in tre ulteriori modalità.
La prima fase è la colligation, poi abbiamo la conferma composta da predizione,consilience e
coerenza.
La colligation : noi osserviamo dei fatti (lo scopo di questi autori è arrivare a leggi sempre più
generali), che devono essere ricompresi sotto una stessa legge sulla base del fatto che sono simili
tra loro, hanno una proprietà in comune es. quando elaboriamo una legge causale, tutti i fatti sotto
una stessa legge condividono la stessa causa. La capacità di riportare singoli fatti sotto un unico
genere si chiama colligation. Secondo W non tutte le leggi sono causali (es. orbite attorno al sole).
La legge permette di prevedere un evento.
Per riuscire a trovare proprietà comune agli eventi, occorre avere a disposizione delle risorse, e la
risorsa della mente umana ricorre al processo di raffinamento della conoscenza delle idee
fondamentali. Keplero ha prodotto una colligation sui dati sull’orbita di Marte perché aveva una
concezione chiara su cosa era un ellisse che derivava dalla geometria, la quale deriva da una
chiarificazione dell’idea di spazio. Una parte di questo processo di chiarificazione avviene a priori,
per deduzione perché sono tentativi quelli che noi facciamo a priori di conoscenza di quelle che son
le leggi del mondo. Noi elaboriamo un principio per questo processo di colligation e viene
considerato un principio dell’idea fondamentale. E’ una nozione strana, noi possiamo indagare a
priori le conseguenze delle idee fondamentali ma sono solo poi i dati empirici che mi dicono quale è
la relazione delle idee fondamentali, perché alle spalle c’è la concezione teologica. L’importante è
quello che il mondo mi restituisce delle idee fondamentali.
In questi anni vengono sviluppate le geometrie non euclidee, e non è più vero che la somma degli
angoli interni è di 180 gradi. La prima reazione dei matematici coinvolti es. Gauss è d ritenere che
se molteplici sono le geometrie, allora non sarà più la geometria considerata a priori, ma saranno le
misurazioni fisiche a dirci quale sarà quella vera. Qui c’è una strana assonanza con W (io non so se
abbia conosciuto le geometrie non euclidee).
La colligation di Keplero non è una legge causale, perché lui di basa sulle posizioni di Marte e
consente di prevederle.
Le scoperte non riguardano fatti nuovi, ma principi nuovi, attraverso cui noi conosciamo il mondo.
Il processo di conoscenza induttiva, svela progressivamente il mondo, svelando le idee
fondamentali.
Il termine colligation non riguarda solo il primo step che presiede alle prime leggi empiriche, ma è
anche il processo che permette di raccogliere le varie leggi empiriche sotto una legge generale,
sempre chiarificando la struttura dell’idea fondamentale.

23
Keplero parte dal problema dell’orbita di Marte, il primo livello di generalizzazione è l’orbita di
Marte, poi le leggi dell'ellisse di Marte, che poi si estende a tutti i pianeti. Il vero salto di qualità si
fa con Newton perché lì riusciamo a riportare il portato di quella legge oltre i fenomeni su cui
direttamente di applica. (poi in realtà le leggi di Keplero non sono riferibili a quella di Newton, però
secondo questi autori sono un caso particolare della teoria di gravitazione).

La conferma
La colligation è la fase del pensiero in cui io formulo ipotesi di unificazione. W ritiene che il
processo di formulazione delle ipotesi non può essere fatto a caso (contro il metodo ipotetico
deduttivo).
Abbiamo la predizione: qui si intende predire fatti nuovi (è difficile definire cos’è un fatto nuovo,
perché anche le posizioni di Marte che non ho osservato sono fatti nuovi. Ma sembra che per W sia
qualcosa di più pregnante e cita la scoperta di Nettuno).
Consilience (concordanza): l’evidenza è più forte se ci consente si spiegare e prevedere fenomeni
di tipo diverso per quelli per cui è stata introdotta la teoria di Newton. Con conferma non si arriva
alla verità ma aumenta la nostra fiducia nella verità dell’ipotesi.
La coerenza (coherence), non dobbiamo introdurre ipotesi ad hoc, che io introduco per risolvere
un problema anche se non ho delle evidenze.
Lui fa l’esempio del flogisto (vd storia quando si brucia qualcosa si disperde questa sostanza, in
realtà Stahl usa questa teoria non solo per spiegare la combustione ma anche la respirazione, noi
quando respiriamo emettiamo flogisto. C’era un altro fenomeno della metallurgia in sui si sapeva
che il metallo ,sia sottoposto all’azione dell’aria e sia scaldato, si trasforma in ossido (allora si
parlava di calce). Stahl dice che la combustione e la calcificazione sono fenomeni simili e quindi
generalizza il principio del flogisto anche al fenomeno della calcificazione e questa appare come
un’estensione naturale. Sembra che il flogisto unifica diversi fenomeni ma c’erano diversi problemi:
quando bruciamo un pezzo di legno otteniamo una cenere che pesa meno . Una candela che si
spegne sotto un contenitore per Stahl era dovuto alla saturazione di flogisto. Però un metallo
calcinato pesa di più ma allora non si era introdotto il peso degli elementi con precisione e quindi si
riteneva che era un problema che si sarebbe risolto nel futuro. Qualcuno aveva tentato di introdurre
un ipotesi che permettesse di rendere l’ipotesi del flogisto anche in accordo con questo fenomeno
ritenendo che esistessero il flogisto a peso positivo e a peso negativo (che spiegava la
calcificazione). Questo è un iesempio eclatante di ipotesi ad hoc perché la nozione di peso negativo
non era mai stata introdotta.
Esperimento del 1775 da Lavoisier (il padre della chimica moderna e della tavola degli elementi)
per dimostrare che il flogisto non si libera: abbiamo una caldaia con sopra un baker, il fuoco e il
mercurio. Poi di immerge in un contenitore piena di liquido e sopra una campana di vetro. Lui
scalda per 10 giorni questo metallo e alla fine nota la formazione dell’ossido che è più pesante del
metallo (mercurio), ma nel frattempo aumenta il livello dell'acqua e questo vuol dire che una parte
dell’aria è stata consumata. Questo esperimento nega che il flogisto si liberi nell’aria quando si ha
riscaldamento o combustione.
Keplero è l’esempio per W di colui che non scopre fatti nuovi ma lui è il primo ad applicare le
ellissi alle orbite perché aveva una concezione chiara dell'ellisse nella sua mente. Solo il processo
induttivo porta alla luce le idee, mentre in altre popolazioni più primitive non si è verificato questo
processo. Quindi non è detto che si sviluppi il processo induttivo (non so se questo si trasformi in
una sorte di predestinazione divina per alcune culture).
Le idee devono essere esplicitate attraverso la conoscenza dei dati empirici. L’esplicazione delle
idee fondamentali consiste nello sviluppo delle leggi da esse deducibili (vd slide).
Conoscenza necessarie
vd slide

24
Scompare in linea di principio la distinzione tra conoscenze empiriche e conoscenze a priori, perché
il mondo è stato costruito sulla base delle idee fondamentali. Gli elementi a priori sono gli stessi che
sono a fondamento del mondo fisico. L’esito epistemologico è sorprendente.

22.4.2021

J.S.Mill
vd biografia, non ha mai frequentato le scuole e non ha svolto attività di insegnamento. La storia
d’amore con sua moglie inizia quando lei è sposata, poi lei rimane vedova e sarà una figura
fondamentale nella sua vita e nelle sue opere. Difese il diritto delle donne a partecipare alla vita
politica e la parità di diritti.
Non è possibile alcuna conoscenza a priori di dati di fatto sia per quanto riguarda il campo teoretico
(filosofico in generale) sia per quanto riguarda il campo etico.
L’opera principale è il sistema di logica. Una possibilità del genere potrebbe essere assicurata solo
supponendo una coordinazione tra struttura del mondo e struttura della mente. Tutta la nostra
conoscenza deriva dall’osservazione e dall’esperienza, anche le idee più astratte: adotta la
visione empirista di Hume.
Vd citazione in inglese in cui parla di ciò che è concepibile e non concepibile: l’inconcepibilità è
una cosa soggettiva per i singoli individui o per tutti gli essere umani, ma in un particolare periodo
storico . Non possiamo inferire che ciò che non siamo capaci di concepire non possa esistere, questo
potrebbe essere solo se l’universo del pensiero corrispondesse al mondo. Alcuni sistemi di filosofia
hanno sostenuto questo: Schelling ed Hegel; la sua prospettiva empirista è molto diversa da questi
autori.
Altra citazione con disegno di Heschel: qualcosa di infinito è una concezione la quale come molte
delle nostre idee complesse contiene un elemento negativo: non finito; ma contiene anche elementi
positivi. Spazio infinito per esempio; non vi è alcuna cosa positiva in questo? La parte negativa è
l’assenza di confini, ma l’idea positiva è quella di spazio e di spazio più grande di qualsiasi spazio
finito. Della durata infinita, è conosciuta come concepita negativamente ma nella misura in cui
significa tempo più lungo di ogni tempo finito, la concezione è positiva. La presenza di un elemento
negativo in un idea non la rende di per sé negativa, una non entità. C’è una chiusura ironica: sarebbe
una grande sorpresa per molti se li venisse detto che la vita eterna è una concezione puramente
negativa, che la immortalità è inconcepibile.
Il disegno vuol dire che quando pensiamo al concetto di infinito, noi lo pensiamo come assenza di
confini, ma non è l’unico modo per concepire l’infinito. Noi potremo trovarsi in uno spazio finito,
in cui possiamo aggiungere ulteriori spazi in modo infinito. Questo coincide con un modello simile
a quello proposto da Poincarè (gradiente termico ?).

La filosofia del linguaggio di Mill è molto complessa, vd citazione. il linguaggio è uno degli
strumenti principali di aiuti del pensiero e ogni imperfezione nello strumento è problematico e può
distruggere la fiducia nel risultato. Per una mente che non sia versata nel vario uso dei tipi di parole,
il tentativo di studiare i metodi di filosofi, sarebbe come un astronomo che non ha mai imparato ad
aggiustare la distanza focale del suo strumento ottico. Anche negli altri autori c’è un’attenzione per
il linguaggio anche se manca una teoria compiuta: in Herschel c’è un attenzione ai termini
specialmente rispetto ai metodi di misura, mentre Wewhell crea dei neologismi.
La denotazione è l’oggetto cui si riferisce il termine, la parola mela ha come denotazione la mela;
la connotazione è la proprietà in virtù della quale il termine si applica all’oggetto es. Frutto rosso
succoso del melo. Nel caso di uomo la denotazione sono tutti gli uomini, la connotazione le
proprietà che fanno qualcosa un uomo.
Qui c’è una tesi molto forte che lui dichiara: la connotazione contiene le proprietà necessarie e
sufficienti a individuare la denotazione; questa chiaramente è una situazione ideale per la

25
denotazione perché quando usiamo i termini non siamo in questa situazione ideale di conoscenza
(possiamo chiamarla significato secondo una terminologia più vicina alla nostra). Foto di
“Cicerone” come ogni altro nome proprio non è connotante ma solo denotante; l’espressione “
l’autore del de Republica” è connotante che denota Cicerone.
La proposizione della forma S è P : se S e P sono connotanti, la proposizione ciò che ha S ha la
proprietà P ; es. le stelle sono corpi che emettono luce. Se P o S non sono connotanti allora la
proposizione esprime un'identità che ci dice che P e S denotano lo stesso oggetto: l’autore del de
republica è Cicerone: Cicerone non è connotante. Però c’è un’identità diversa: Tullio è Cicerone, in
questo caso abbiamo due espressioni non connotanti, questa identità per M è vuota di contenuto
fattuale, nel senso che non ci dice nulla di Cicerone, ma ci parla dei termini, ci dà informazioni sulle
nostre convenzioni linguistiche.
Tutte le proposizioni a priori non sono informative sul mondo ma non tutte dipendono dalle
nostre convenzioni linguistiche (questo verrò detto nel 900) es. ogni uomo è una creature vivente è
a priori, in quanto la connotazione di uomo contiene la proprietà di essere una creatura vivente. La
connotazione cioè i significato non dipende dalle nostre convenzioni linguistiche, ma l’uso dei nomi
sì.
Termini generali: ogni volta che introduco un termine generale isolo una classe di oggetti, perché
un termine generale è associato a una connotazione, tutto ciò che soddisfa quella proprietà rientra in
quella classe di oggetti. Le classi le posso generare io a piacimento; il problema è (è un problema
che verrà accolto nel 900) se tutte queste classi siano tra loro uguali (es. se dico contate gli
oggetti sul tavolo non tutti mettete lo stesso numero perché classifichiamo gli oggetti diversamente;
la nozione oggetto non è classificatoria, non ha una connotazione chiara se non molto generica). La
risposta è no: sono tutte reali in un certo senso es tutti gli oggetti bianchi in questa aula; ma io non
li posso generalizzare sapendo solo che sono bianchi, ho solo le informazioni che sono bianchi, non
vado oltre. Ma se io dico tutti gli studenti dentro questa aula, posso distinguere tra maschi e
femmine, alcuni sono del primo anno, ecc. Posso fare delle inferenza perché non è un insieme
costruito a partire da una proprietà qualsiasi, ma rilevante per altre proprietà che ognuno di noi ha.
Citazione in inglese: se noi consideriamo ciascuna delle classi così formate come la classe degli
animali o la classe bianca e consideriamo in quali particolari gli individui di quella classe si
distinguono da quelli non inclusi, noi individuiamo differenze notevoli tra alcuni classi e altre.
Ci sono alcuni classi in cui gli oggetti differiscono solo per alcuni particolari che possono essere
enumerati es. le cose bianche; mentre altri differiscono per un numero superiore di proprietà che
posso contare, anche di più di quelle che ci potremo mai aspettare di conoscere. Le cose bianche si
distinguono solo perché sono bianche, e si va poco in là.
Ma per classi come animali, piante o zolfo possiamo indagare e scoprire nuove proprietà che non
erano conosciute: questa è la nozione di genere naturale, altre volte chiamato generale reale (ma
bisogna fare attenzione perché lui dice che i generi sono reali perché sono scientificamente
pregnanti). Quando noi formuliamo una classe del genere siamo riusciti a individuare una classe che
hanno una natura in comune e che quindi hanno molte proprietà in comune. es. Tavola di
Mendelev in quel caso gli elementi sono classificati per il peso atomico, che ha una natura comune.
Questo è un concetto molto importante, “cerniera” con la posizione di Mill che è di tipo realista.
Quando costruiamo classi di questo tipo stiamo mettendo le mani sulla struttura reale del
mondo.

Deduzione ovvero sillogismo


per M la deduzione è ancora il pensiero sillogistico. La deduzione non ci permette una conoscenza
nuova ma esplicita quello che già conosciamo: “tutti gli uomini sono mortali” include già
l'asserzione che Socrate è mortale. Il sillogismo esplicita le conseguenze delle nostra asserzioni e ci
permette di vagliare criticamente il nostro impegno nei loro confronti.

26
Nella matematica-geometria sembra che otteniamo delle conoscenza a priori per via deduttiva. Mill
qui è straordinario su questo punto: le scienza matematiche non sono a priori, i principi da cui
partono sono ottenuti induttivamente (queste sono tra le pagine più problematiche di Mill).
Induzione enumerativa
Per M il processo scientifico procede per induzione enumerativa. (libro: fatti ipotesi e previsioni di
Goodman risolve questo problema). Lui sostiene che le inferenze di questo tipo sono giustificate,
cioè sono garantite nella loro applicazione a prescindere dalla loro verifica. Questo non vuol dire
che sia al 100 per 100, esempio della calcolatrice, ma posso avere un buon grado di fiducia nel
risultato.
1 la nostra esperienza ci ha dimostrato che ciò che è vero di molti esemplari di una classe è vero per
molti esemplari dello stesso tipo. Per M il metodo che uso è affidabile, l’induzione è giustificata
induttivamente. Ma non è circolare questo passaggio? Hume diceva che non si poteva percorrere
questa strada. Anche per M è circolare, noi per esperienza sappiamo che la maggior parte delle
induzioni è corretta.
2 se è circolare allora ci possiamo chiedere se le prime inferenze erano azzardate: noi siamo
spontaneamente inclini a fare induzioni, ma d'altra parte ci sono regolarità in natura che si
impongono (il dado cade e si ferma con una sola faccia verso l’alto). È ben lontano da un metodo-
deduttivo perché la formulazione delle ipotesi segue la regola dell’induzione per enumerazione.
Le sue argomentazioni hanno quasi un approccio antropologico: guardando criticamente a come
l’uomo di fatto ragiona possiamo scoprire le leggi che governano il ragionamento induttivo. Tra il
pensiero prescientifico e quello scientifico vi è continuità e nel momento in cui aumenta il pensiero
scientifico, aumenta la nostra conoscenza del modo di ragionare.
Il ragionamento induttivo è fallibile, ma l’uso ripetuto aumenta la fiducia in queste pratiche di
ragionamento.
A un certo punto lui cita il metodo ipotetico, che per lui è il ragionamento che ritiene credibile una
tesi per il solo fatto che ci permette di spiegare certi fenomeno. Da quell’ipotesi noi possiamo
dedurre i fenomeni osservati; secondo lui questo metodo di ragionare è totalmente scorretto.
L’ipotesi deve essere formulata a partire da un ragionamento induttivo (es. del flogisto). Le ipotesi
svolgono solo la funzione di suggerire possibili esperimenti utili al ragionamento induttivo.
L’esperimento è il modo più diretto per scoprire le relazioni causali, posso creare condizioni
artificiali che mi permettono di isolare relazioni che considero importanti.

I quattro metodi
vd slide e libro di testo.

23.4.2021
Geometria e matematica
Dovevamo vedere la posizione di M per quanto riguardo la geometria e la matematica e lo facciamo
vedendo due citazioni vd slide (le scienze a priori). La tesi che sostiene che le entità della
geometria e della matematica sono entità mentali a priori non gli sembra psicologicamente corretta,
viceversa i punti, i cerchi e i quadrati sono copie dei punti, dei cerchi e dei quadrati conosciuti
dall’esperienza. La nostra idea di punto è il minimo visibile, una linea come definita dalla geometria
non è concepibile. Noi manipoliamo oggetti che derivano dall’esperienza e che si portano dentro dei
limiti. Noi non possiamo ragionare su una linea che non ha spessore perché abbiamo il potere di
prestare attenzione solo su una parte di quella percezione o concezione invece del tutto. Ma noi non
possiamo formarci un’immagine mentale di questa linea anche se possiamo dirla (tutte le linee che
abbiamo nella nostra mente hanno uno spessore).
Domanda:La non concepibilità (es. spazio infinito)non è prova della non esistenza e viceversa la
concepibilità non è prova dell’esistenza. Tutta la nostra conoscenza deriva dall’esperienza (a

27
differenza di quanto sosteneva Wewhell per esempio ) e tuttavia possiamo fare affermazioni
giustificate sul mondo (a differenza di quanto riteneva Hume), anche affermazioni di esistenza.

2 slide: perché sono chiamate scienze esatte? Perché le matematiche e quelle branche della
scienza della natura che attraverso la matematica sono state convertite in scienze deduttive (si
riferisce all’assiomatizzazione della fisica) sono considerate indipendenti dall’esperienza? In quegli
anni esisteva anche questa tesi (Poincarè) che una parte della scienza della fisica dovesse essere
considerata come valida a priori (dandogli un significato che vedremo). Come mai questi sono
caratterizzati come sistemi di verità necessaria? Io penso che questa peculiare certezza attribuita ad
esse sia un’illusione, non sono in realtà scienze certe. Per sostenere questa illusione è necessario
supporre che le verità riguardano oggetti puramente immaginari. (Questa slide viene prima di
quella precedente e così si capisce).
Qui viene sollevato un enorme problema, che caratterizza il 900, che è lo statuto della matematica.
Secondo la posizione platonista le entità della matematica sono ideali, posizione che non è
accettata ovviamente dagli empiristi, anche se risolve dei problemi.

Il metodo ipotetico deduttivo


La questione del metodo scientifico, cioè quale sia la procedura più affidabile (es. macchina
calcolatrice) nella costruzione delle teorie scientifiche è uno dei temi fondamentali della filosofia
della scienza.
L’ottocento è il secolo dell’affermazione del metodo induttivo. Si riteneva che l'aspetto centrale del
metodo scientifico fosse l’estrapolazione dai dati empirici. Gli ultimi tre autori hanno sottolineato
che partendo dai dati empirici, formulo una legge generale e poi la proietto su un insieme più ampio
che non ho ancora osservato. Quindi io generalizzo quella legge: questa è l’estrapolazione. Questo
consente di spiegare i fenomeni e di fare previsioni su quelli non ancora osservati (qui c’è
l’elemento in più della spiegazione che è problematico).
Questa prospettiva è stata superata con l’accettazione del metodo ipotetico-deduttivo.
Partiamo da una base di dati sperimentali, attraverso un’inferenza di qualsiasi tipo, elaboriamo
un’ipotesi esplicativa, e per via deduttiva traiamo le conseguenze empiriche o previsioni. Sulla
base di queste previsioni noi formuliamo test sperimentali (progettiamo le condizioni, gli strumenti
e il risultato...ecc.). L’esito dei test sperimentali mi dice se le mie conseguenze empiriche sono
confermate oppure no. A sua volta l’esito si trasferisce sull’ipotesi esplicativa: se il test sperimentale
conferma le conseguenze empiriche conferma l’ipotesi esplicativa, altrimenti se i test sperimentali
non confermano le conseguenze empiriche (non dico falsificare, perché la falsificazione come la
verificazione è molto difficile da raggiungere) l’ipotesi esplicativa non viene confermata. Questa
conferma si dice di tipo induttivo. Il test sperimentale non mi dice che la teoria è vera ma aumenta
il grado di fiducia che io ho nella verità della teoria (secondo un’altra versione aumenta la
probabilità che la teoria sia vera).
La differenza con gli induttivisti visti finora è che essi danno un grande peso alla fase induttiva di
elaborazione delle ipotesi e in secondo piano la verifica. Il metodo ipotetico deduttivo all’opposto il
peso dell’ “avvicinarsi alla verità” è spostato sulla conferma, nel metodo induttivo sulla fase
dell’induzione, ma quelle due fasi sono contemplate da entrambi.

Duhem: olismo della conferma


Parte da considerazioni che riguardano il passaggio deduttivo dalle ipotesi esplicative alle
conseguenze empiriche. La deduzione è in realtà basata su un corpus molto ampio di conoscenze
fisiche. D è uno scienziato ed è sostenitore di una teoria fisica che si chiama energetismo,
elaborata in quegli anni da William Geets (?). E’ una teoria fisica: i fenomeni chimici e fisici
possono essere trattati dalla fisica senza far riferimento ad alcun modello meccanicista e quindi
senza far riferimento agli atomi. Secondo D il modello meccanicista non è scientifico ma

28
metafisico. Egli dice che la fisica non deve spiegare i fenomeni, altrimenti cade nella metafisica.
Non è facile distinguere il concetto di spiegazione da quello di previsione, perché D ritiene che uno
dei principali obiettivi della scienza è di fare previsioni con successo. Come avviene la
previsione? Lo abbiamo visto oramai,avendo leggi generali che funzionano bene e come scienziati
abbiamo il compito di formulare queste leggi generali. Questa posizione passa sotto il nome di
strumentalismo. Compito della scienza è ricondurre i dati a una legge generale, attraverso la
matematica, e questo ci consente di fare previsioni precise. Le equazioni cosa sono? Sono sempre
interpretate sulle quantità che misuriamo, ogni elemento di un’equazione corrisponde a quantità
che misuro. L’interpretazione deve quindi essere fatta sugli elementi sperimentali (questo da un
certo punto di vista lo riallaccia all’empirismo).
Ma questo non va interpretato ulteriormente con costruzioni mentali che sono frutto
dell’immaginazione: es. la massa di gas chiusa in un recipiente abbiamo la nostra legge che collega
la pressione, il volume e la temperatura in un certo modo, se aumentiamo la temperatura la
pressione aumenta. Come facciamo a spiegare questo? D dice abbiamo la legge e questo fa la
scienza (noi oggi sappiamo che la massa di gas è visto come un insieme di particelle e più si
muovono velocemente, e più aumenta la temperatura e più aumentano gli urti e sale la pressione).
Quindi abbiamo da un lato la legge e dall’altro un modello che spiega come accade. D esclude
questa seconda fase che per lui ha al massimo un valore euristico.
Si può andare oltre la legge dei gas, attraverso una legge più generale ma senza arrivare al modello
esplicativo.
Slide: D parte da un’analisi della pratica sperimentale in fisica: la legge generale può essere intesa
in questo modo (questa è la formulazione che viene data nel dibattito sucessivo): se T1, &T2,
&...Tn&...Cn, allora Ce. Situazione sperimentale: T1&tT2...&Tn&Cn. Previsione: Ce.
Partiamo dalla legge generale Cn sono le condizioni di contorno (tutto ciò che può per es.
disturbare la rilevazione degli strumenti), Ce quello che mi aspetto di misurare dall’esperimento. T1
T2 sono varie ipotesi teoriche che possono consistere non solo delle ipotesi esplicative, ma anche,
per esempio, di teorie riguardanti il funzionamento di strumenti di osservazioni e misura.
Cosa succede se sperimentalmente la mia previsione non viene confermata? Tutto ciò che sappiamo
è che una delle nostre premesse è falsa, ma non sappiamo quale, la nostra premessa infatti è una
lunga congiunzione. Di chi è colpa? La legge, lo strumento, condizioni di disturbo ? Quindi una
grande cautela rispetto agli esiti degli esperimenti. Questo attenua le frecce dritte che abbiamo
visto nel metodo ipotetico deduttivo, quella freccia non è così sicura perché colpisce un intero
insieme di teorie.
Tesi olistica
La tesi olistica allora possiamo indicarla come tesi della non separabilità: la conferma o la
disconferma delle mie previsioni si trasferisce all’intero corpo delle mie ipotesi teoriche. In
particolare in caso di disconferma tutto ciò che sono in grado di sostenere, da un punto di vista
logico, è che almeno una delle asserzioni della mia teoria deve essere modificata. Anche in caso di
conferma viene confermato un corpo di ipotesi teoriche.
Lo scienziato si trova quindi a dover scegliere sulla base di criteri non logici, e deve acquisire
sufficiente esperienza e competenza per operare queste scelte. Un elemento fondamentale nella
formazione di uno scienziato fisico, per D, è la storia della fisica, per lui è un elemento
fondamentale la continuità della storia della fisica (lui indica un’immagine di un oggetto in
movimento ferma, ma per sapere dove va dobbiamo sapere quello che è venuto prima). Per lui non
esiste discontinuità tra il medioevo e l’età moderna, per lui non ci sono salti.

28.4.2021

29
Avevamo visto la tesi della non separabilità (per me meglio questo termine che quello di olismo).
Nel caso della disconferma tutto ciò che posso sostenere dal punto di vista logico è che almeno una
delle mie asserzioni deve essere modificata.

La tesi Duhem-Quine
E’ invalso l ‘uso di questa etichetta, perché nel saggio i due dogmi dell'empirismo nel 1953, c’è
una nota in qui Quine esponendo la sua teoria, più olistica, fa riferimento a D stesso. Questo ha dato
l’opportunità di forgiare questa etichetta anche se ciò che accomuna queste tesi è l’elemento logico
di fondo. Si parte da una premessa se..allora… io devo attendermi un certo esito sperimentale. Se
l’esito non soddisfa la previsione accade che tutta la parte che precede l’allora viene negata e io non
so quale. D parte dal punto di vista della metodologia sperimentale e degli apparati coinvolti e
quindi delle teorie che mi spiegano come funzionano gli apparati, assumendo che non vi siano
condizioni di disturbo. Quindi molto legata alla pratica sperimentale in fisica.
Quine non è legato alla pratica sperimentale, ma trova la sua espressione nell’olismo semantico, il
linguaggio. L’idea generale è che il significato del termine non può essere preso isolatamente dalla
struttura semantica del linguaggio. Quine estende l’esito a tutto l’apparato della conoscenza
(sembra che lui abbia variato la sua posizione per la matematica e la logica). Le nostre conoscenze
sono distribuite come un campo di forze, una rete. Nella periferia ci sono le previsioni empiriche e
se una previsione non trova riscontro io posso modificare qualsiasi punto del campo in modo da
rendere quella confutazione inerte. D non accetterebbe mai questo, nel senso che per lui dal punto di
vista logico è così ma è anche vero che lui descrive e promuove una formazione dello scienziato per
andare a capire cosa modificare (lui non accetterebbe che qualsiasi cosa sia modificabile). Anche
Quine dice di cercare di modificare il meno possibile il campo di forza.
Quindi due elementi:
1) D è limitato alla fisica quindi e le sue osservazioni sono limitate all’esperimento.
2) Quine estende il campo dell’oliamo e ne trae conseguenze più estreme. (Vd slide di Quine)
L’estensione del pensiero di D ad altri ambiti era già stata fatta da altri prima di Quine, altri avevano
cercato di applicarlo ad altri ambiti e lui esprime la sua opinione al riguardo.
Vd slide “...noi non neghiamo che queste estensione sia in parte legittima….tuttavia non dobbiamo
dimenticarci delle differenze che distinguono i diversi metodi…in cui forse troviamo più differenze
che analogie rispetto alla fisica.” quindi lui dice che le mie riflessioni sono legate alla pratica fisica,
anche se certo dietro ci sono ragioni generali che possano riflettersi in altri campi, ma questo
dipende dalle analogie di questi campi con la fisica. Quindi ampliamento ma con cautela e quindi
probabilmente l’ampliamento di Quine la rigetterebbe.
Vd slide: riguardo alle due tesi, che abbiamo visto sopra: la prima è quindi troppo estesa, egli
limita al campo della fisica sperimentale l’ambito di applicazione della sua tesi. La seconda è
contraria a ciò che egli dice circa le capacità critiche che deve sviluppare il fisico durante la sua
fomrazione, che deve formulare ipotesi in grado di raccogliere il consenso della comunità (questo
emergerà con Khun), lui ha fiduca in questo perché la storia insegna così.
Vd slides: olismo della conferma (ripete cose precedenti). (più che di “buon senso” sarebbe
meglio tradurre di “senso educato”). È un dato fatale che prima o poi si arrivi al consenso.

Duhem è un realista scientifico? Abbiamo visto all’inizio che D rifiuta il concetto di spiegazione
perché è un affare della metafisica che non interessa allo scienziato, a cui interessano le equazioni.
Aristotele,Cartesio e Newton avevano una loro metafisica (Newton: spazio e tempo assoluti che lui
introduce per spiegare alcune cose altrimenti incomprensibili).
D però no si limita a dirci questo (formuliamo le nostre equazioni e le nostre leggi sperimentali)
perché per lui la costruzione scientifica va verso il più generale, le teorie sono principi generali che
servono a mettere ordine. Lui fa questo esempio di ordine:l’ottica di Newton ha messo ordine in
una serie di fenomeni, il fenomeno di scomposizione della luce che passa attraverso un prisma,

30
l’arcobaleno e la formazione di linee colorate su bolle di sapone. Prisma e arcobaleno sono
fenomeni correlati mentre le bolle di sapone sono fenomeni di interferenza e quindi vanno messe
insieme alle leggi di interferenza (studiata da due scienziati vd). La teoria classifica le leggi
empiriche in modo ordinato perché hanno qualcosa di comune (ci ricorda i generi naturali di Mill,
il legame che ho individuato va a cogliere quindi qualcosa di rilevante nella natura degli oggetti).
Qui non parla di proprietà comune ma cmq parla di leggi che mi consentono di scoprire nuove
regolarità empiriche. Allora quando vediamo che una teoria riesce a mettere ordine in maniera
così efficace succede che una teoria fisica non ci spiega la realtà ma più si perfeziona e più
avvertiamo che l’ordine logico è un riflesso di un assetto ontologico.
Vd slide Il fisico non saprebbe spiegare la condizione naturale a questo ordine trascendente, tuttavia
il fisico non può ammettere che il sistema sia puramente artificiale. L’ordine che ci consente la
possibilità di prevedere nuove leggi sperimentali e ne deriva un’impressione di naturalezza. Il
problema è che la natura non la possiamo descrivere, quindi è un realista sui generis.
Poi parla in un altro punto di realismo a proposito dell’induzione, l’uso dell’induzione prevede una
mentalità realista.

Experimentum crucis
di derivazione baconiana: se abbiamo due teorie diverse che riescono a prevedere bene i fenomeni
(es. energetismo vs atomismo). Bacone dice che c’è la possibilità di trovare un esperimento che per
due teorie diano un esito differente. Date le premesse che abbiamo visto, l’esperimento cruciale non
esiste, perché prevede che possiamo individuare una tesi isolatamente da altre es. Se viene fuori un
non x il fisico energetista potrebbe trovare elementi per correggere la sua teoria.
Esempio: sembra a un certo punto che si sia trovato un esperimento crucis tra teoria corpuscolare e
ondulatoria della luce (F.Aragò). Foucault nel 1850 realizza l’esperimento ed in effetti la luce è più
veloce dell’aria e quindi ha ragione la teoria ondulatoria. L’esperimento consiste in uno specchio e
una fonte luminosa, lo specchietto si muoveva molto velocemente, poi la luce viene fatta passare
nell’acqua e D dice che magari non né un onda né un corpuscolo ma una perturbazione
elettromagnetica, come sosteneva Maxvell. Non si può mai essee sicuri dell’experimentum crucis
perché si prendono in considerazione solo due teorie e se ce n’è una terza? L’argomento qui è se
c’è una terza teoria?

30.4.2021
Jules Henri Poincarè

La scienza e l’ipotesi (1902).


Questo autore è importante per la nozione di convenzionalismo, e diventa molto importante per la
filosofia della scienza dei primi di 900. La sua è una concezione particolare. Come formazione è da
ingegnere, matematico, si è occupato di fisica è uno degli ultimi grandi scienziati che hanno dato
contributi in diversi ambiti della scienza (nel 900 poi si assiste a una specializzazione e queste
figure si perdono). È noto per il problema dei tre corpi, come evolvevano nel tempo la traiettoria dei
corpi sottoposti alla gravitazione; si trattava di capire se il sistema solare era stabile o no. Lui trovò
che si trattava di sistemi molto sensibili alle condizioni iniziali, nasce con lui la topologia e a lui fu
accreditata una elaborazione della relatività di poco antecedente a quella di Einstein.

Le geometrie non euclidee


Presentano un’enorme rivoluzione anche per la filosofia e rappresentano un ostacolo per il modello
kantiano. Euclide 3 sec. d.c. in Alessandra d’Egitto scrive questo compendio introduttivo, è
composto di 13 libri: dà un'impostazione assiomatica delle conoscenze geometriche aritmetiche,
sopratutto della geometria.

31
Le definizioni; vuol dire introdurre un linguaggio chiaro. es. il punto è ciò che non ha parti, ecc vd
slide. Queste definizioni parlano di oggetti che non sono percepibili, e c’è un elemento platonico
dietro. Nella definizione c’è un intento descrittivo rispetto a determinate nostre intuizioni, sebbene
non trovi corrispettivo nelle sensazioni.
Le nozioni comuni sono assiomi es. cose uguali a una stessa cosa sono uguali tra loro ecc. vd. Sono
considerati autoevidenti e la loro autoevidenza e validità vale oltre la geometria es. sono validi per
l’algebra.
I postulati sono anch'essi degli assiomi intuitivi e auto evidenti, ma rispetto alle prime sono
specifiche e trattano della geometria vd slide esempi. Il famoso quinto postulato: ci sono più
formulazioni vd slide alcuni secoli dopo è stata proposta la formulazione equivalente: per un punto
esterno ad una retta data, passa una ed una sola parallela ad essa.
Il problema è che non è mai stato ritenuto autoevidente, lui lo ha usato solo una volta negli
elementi. La maggior parte dei teoremi viene dimostrata con gli altri 4 postulati e quindi non si
capisce se abbiamo bisogno di questo quinto postulato. Dal punto di vista costruttivo Euclide è
molto legato a questo discorso, e questo 5 postulato non posso mai esser certo di trovarne la
conferma perché se l’inclinazione è infinitamente piccola potrei non trovare mai il punto di
incrocio.
Questo origina una serie di tentativi di cercare di dimostrarlo a partire dagli altri 4, che però sono
stati tutti fallimentari. Quindi sembrava una parte della geometria indipendente, che non si
armonizzava con il resto. Nel 700 Gerolamo Saccheri (vd opera) fa un tentativo di dimostrare (fa
varie cose interessanti). Lui cerca di ordinare i principi di logica secondo una struttura euclidea,
individuando un linguaggio, gli assiomi e i teoremi. In questa opera di logica presta particolare
attenzione al ragionamento per assurdo e la applica al 5 postulato. Cerca di negarlo per vedere se
si individuano delle contraddizioni con il resto della geometria a partire dagli altri 4 postulati. Gli
altri erano stati tentativi di dimostrare direttamente il postulato. Purtroppo commette degli errori e si
incomincia a vedere che possiamo accettare i primi 4 postulati e negare il 5 (lui era convinto di
averlo dimostrato). Così però si ottengono risultati controintuitivi.
Negare il 5 da due possibilità: o non passa nessuna retta o più di una. Nel corso dell’800 si
realizzano delle geometrie non contraddittorie, si prendono i primi 4 postulati , aggiungiamo una
delle due negazioni e otteniamo altri due sistemi che non generano contraddizioni.
Vd slide con immagine: normalmente la retta è considerata la congiunzione più breve tra due punti,
ma questo cambia e si definisce il concetto di geodetica, la retta è la geodetica del piano euclideo.
Le geodetiche negli altri due piani sono : secondo una geometria (Riemmann) la somma degli
angoli è maggiore di 180 gradi (esempio della plastica che si appoggia su una sfera calda, la linea
viene deformata) le geodetiche sono archi di circonferenza massima, (se abbiamo una sfera
possiamo tracciare tante circonferenze, quella dell’equatore è quella massima e in una sfera ci sono
infinite circonferenze massima ) alle rette succede vd figura in mezzo, la figura si gonfia.
In uno spazio ellittico invece, le geodetiche sono sezioni di conica, il triangolo si chiude e quindi
gli angoli sono minori di 180, qui siamo nella geometria iperbolica.
Vd altra immagine; la figura gialla: le parallele non si incroceranno mai nella geometria iperbolica
(figura accartocciata) ( ci sono due versioni, alcuni dicono sono infinite e altri che sono due); nella
geometria ellittica tutti gli archi di circonferenza massima in un qualche punto incrociano e quindi
non c’è nessuna parallela.
Dal punto di vista del calcolo queste geometrie sono tutte legittime, anche se sono paradossali
perché vanno contro alcune nostre intuizioni. Il problema è di capire se queste nostre intuizioni
hanno a che fare con caratteristiche dello spazio o con il modo in cui noi siamo abituati a vedere lo
spazio.
Tutti i testi che vedremo sono tratti dalla scienza e l’ipotesi. P fa una ricostruzione molto articolata
di come percepiamo lo spazio mentalmente per far vedere che la geometria euclidea è la più
naturale, ma naturale per come siamo fatti noi come soggetti (è diverso da Kant perché c’è una

32
costruzione dello spazio a partire dalla coordinazione muscolare, che ciascun soggetto opera a
livello preconscio), ma questo non mi dice nulla sulla natura dello spazio in sé, né vieta che io mi
potrei abituare a percepire lo spazio in modo diverso.
Bisogna quindi vedere nel mondo quale geometria sia valida: c’è tutta una serie di tentativi, e la
geometria perde lo status di scienza a priori. Vediamo la soluzione di P.
Partiamo dalla sua filosofia delle ipotesi: distingue le ipotesi verificabili, naturali, indifferenti o
neutrali, apparenti o convenzioni.
1) verificabili vd slide: sono le vere e proprie generalizzazioni (come la famosa legge dei gas). Qui
è simile a quello che aveva detto D,ma P lui dice che bisogna non moltiplicare le ipotesi, ma D dice
che è impossibile non farlo, perché nel momento in cui progettiamo un esperimento tiriamo in ballo
diverse leggi. Questa indicazione di P è più un cercare di mantenere il rasoio di Occam, ma lui
conosce il problema dell’olismo, ne discute a distanza con D, ma non ne fa una questione
fondamentale.
2) naturali vd slide: sono pericolose per lui. Sono quelle tacite e inconsapevoli, è praticamente
impossibile sottrarci ad esse (“È difficile non supporre che l’influenza di corpi molto distanti non sia
trascurabile, che i piccoli movimenti obbediscano ad una legge lineare, che l’effetto sia una funzione
continua delle sua causa[...]Tutte queste ipotesi formano per così dire lo sfondo comune di
tutte le teorie della fisica matematica” ). Sono le ultime a dover essere abbandonate . Se nella teoria
qualcuna di queste assunzioni è sbagliata è molto difficile vederlo.
3)indifferenti vd slide: es. degli atomi, il modello senza atomi doveva fare calcoli più complessi.
Le ipotesi indifferenti sono innocue purché non diventiamo realisti, sono ipotesi euristiche e non è il
caso di condannarle (purché non le prendiamo troppo sul serio).In realtà queste indifferenti e le
precedenti si intersecano abbastanza. Ma il punto è che finché il sistema produce previsioni
confermate, insomma, la cosa può andare.
4) convenzioni: non possono ricevere conferma. La sua riflessione è in parte ispirata alle geometrie
non euclidee. Non si capisce perché si dovrebbe approvare la geometria euclidea e non le altre e non
c’è nessuna misura che possiamo fare nel mondo fisico per dirci qual è quella giusta. Le geometrie
sono come delle unità di misura lui dice per analogia che se devo misurare una lunghezza posso
usare il metro o il pollice,ma non c’è alcuna domanda sensata al riguardo su quale sia la misura
giusta, dipende da ciò che io ho scelto. Non ha senso chiedersi qual è la geometria giusta, dipende
da ciò che mi è più conveniente. Non sono però come le ipotesi indifferenti perché queste sono
legate alle conseguenze empiriche e ricevono conferma indiretta o disconferma a seconda degli esiti
empirici. Questi non sono così, sono talmente generali che non riescono ad avere conferma
dall’esperienza empirica. Questo vale per le geometrie ma anche i principi della meccanica
newtoniana sono considerati così, cioè convenzionali, non possono ricevere né conferma né
falsificazione dall’esperienza e lui parla per es. del primo principio di inerzia, ma non possiamo mai
realizzare delle condizioni che rappresentino ciò che il principio postula.
Per P la convenzione non ha il carattere di arbitrarietà (che diventerà predominante nei primi dei
900), sono convenzionali perché li accettiamo, pur non potendo sottoporli alla verifica
dell’esperienza, e ci servono per costruire la meccanica in questo caso. Alla fine è la pratica a
guidarci, alla fine accettiamo quello che è più comodo. La sua è una posizione sfumata, non così
netta (ha cambiato idea sugli atomi, io penso che gli atomi abbiano cambiato status e siano diventati
ipotesi del primo tipo).
Vd slide: gli assiomi geometrici non sono giudizi sintetici a priori come voleva Kant (in realtà K ha
anche un concetto di spazio , allora c’è la possibilità di costruzione a priori indipendente dalle
intuizioni. Il suo sistema può essere compatibile con le geometrie non euclidee). L’aritmetica non
è sullo stesso piano della geometria, lui da tutta una giustificazione di questo, e non è possibile
una aritmetica diversa. Quindi aritmetica e geometria non sono sullo stesso piano.
Gli assiomi della geometria non sono neppure verità sperimentali (vd slide). Gli assiomi geometrici
sono quindi convenzioni, purché i sistemi non siano contraddittori. Se pensiamo che le geometrie

33
sono convenzioni le possiamo ritenere vere per convenzione. L’adozione convenzionale significa
che è vera per convenzione.
Poi dice che gli assiomi della geometria non sono che definizioni camuffate, es. non facciamo che
definire in modo diverso la retta (non c’è una risposta a questa domanda, ma la definisco
differentemente a seconda dello spazio in cui mi trovo).
D e P non partono da prospettive tanto differenti ma hanno una presa di posizione differente nb.
vedi ultima slide. Secondo l’olismo della conferma ogni aspetto teorico può essere messo in
discussione dagli esiti sperimentali che sono in contraddizione con la previsione teorica. La scelta di
quale presupposto teorico debba essere salvaguardato e di quale possa essere messo in
discussione semplicemente non segue canoni di pura logica, ma si realizza per mezzo del confronto
tra le diverse opzioni. Poincaré, invece, pur ammettendo il dato dell’olismo della conferma riteneva
che fosse possibile individuare parti delle teorie sottratte al confronto empirico. Tali ipotesi, adottate
convenzionalmente, potevano sì essere rigettate ma non falsificate dai dati empirici
Per P la convenzione non è una verità sperimentale, non è una verità a priori in senso classico
perché posso sceglierne un’altra. All'inizio del 900 si assiste proprio a questo trend, l’apriori diventa
mobile e modificabile.

5.5.2021
Neopositivismo ed empirismo logico
Costituisce uno dei movimenti più importanti della filosofia della scienza e della filosofia in
generale. Normalmente si parla di “movimento” neopositivista, è in termine che viene usato spesso
in campo artistico e si tratta di riferirsi a un mondo composito di artisti che magari hanno
provenienze diverse senza confini netti. Quando parliamo di neopositivismo nei manuali si tende a
far passare una visione stereotipata anche perché a partire dagli anni 50 ha preso forma una critica
molto forte al neopositivismo (specialmente Quine) e i punti deboli che la critica ha individuato
sono quelli che sono rimasti nell’immaginario prevalente, ma questi sono solo una parte e spesso
queste critiche erano già interne al movimento. Noi andremo sulle grandi linee e non
approfondiremo questi aspetti.
Un’altra espressione che si usa è positivismo logico, sono etichette che noi prenderemo come
equivalenti anche se ci potrebbero essere delle differenze di dettaglio,anche se forse l’etichetta
migliore è empirismo logico.

Il circolo di Vienna (1922-1936)


Moritz Schlick è la figura attorno a cui si radunano una serie di filosofi con interessi scientifici e
anche scienziati con interessi filosofici. S tiene una corrispondenza anche con Einstein e scrive un
trattato di introduzione alla relatività. Questo gruppo che si incontra settimanalmente dura una
decina di anni, non è un gruppo stabile, c’è un piccolo nocciolo duro e poi tanti personaggi che
partecipano, alcuni emigrano. Quindi movimento nel senso della dinamicità e non del dogmatismo,
c’è una forte anima dialogica e di discussione. S tiene anche contatti con Wittgstein che non
partecipò mai agli incontri del circolo ma la cui filosofia fu determinante per i problemi e le
soluzioni che si discussero.
Rudolf Carnap ha il merito principale di aver tentato più degli altri di sviluppare in maniera
compiuta il programma dell’empirismo logico, sviluppando un’analisi compiuta del linguaggio
scientifico. È quello anche che si scontra con i problemi di questo progetto e modifica nel tempo le
proprie posizioni.
Ci sono altri esponenti Otto Neurath (sociologo), Hans Hahn (matematico) e Philipp
Frank(fisico).
Fondamentalmente queste discussioni vertono sull’analisi della conoscenza scientifica, su cosa si
distingua dal resto della conoscenza e lo sfondo è di ritenere che sia la forma di conoscenza dei
fatti. Alcuni autori, non tutti, arrivano a disconoscere qualsiasi altra forma di conoscenza e si
dissolvono questioni che riguardano per esempio l’etica, la politica, l’estetica. Nella Vienna

34
dell’epoca questi intellettuali, che hanno una formazione all’interno della filosofia tedesca (alcuni
sono neokantiani) nonostante vengano presi come esempi della filosofia analitica; sono isolati e
incontrano problemi anche perché hanno come bandiera quello della chiarezza del linguaggio e una
razionalità pulita e quindi è bandita l’uso manipolatorio del linguaggio (in quegli anni l’uso
manipolativo del linguaggio raggiunge il suo apice in ambito politico). Nel 1936 Schlick viene
assassinato da un fanatico nazista. Poi abbiamo una diaspora iniziata anche prima per cui molti si
stabiliscono negli USA con una forte intesa col pragmatismo, pochi in Inghilterra e quindi le idee
del circolo si spargono nel mondo anglosassone ( in Inghilterra la filosofia del circolo verrà accolta
più lentamente che negli USA).
Un altro importante circolo è quello di Berlino, anche se più piccolo, era più legato ai problemi
della conferma e della probabilità. Hans Reichenbach è l’esponente più importante e ha risentito di
elementi neokantiani cercando di distaccarsene. Un esponente più tardo è Carl Gustav Hempel,
che ha legato il suo nome alla famosa teoria nomologica deduttiva della spiegazione scientifica.

Nell’800 si verifica lo stacco della filosofia dalla scienza e lo scienziato diventa una professione. E
allora cosa rimane alla filosofia? Che ruolo poteva ancora ricoprire? A volte si usa una etichetta
corretta ma che può essere fraintesa: la filosofia diventa una scienza di secondo livello, ma questo
non significa che essa abbia un ruolo marginale e secondario per questi pensatori. La scienza
incarna il modello conoscitivo che ci permette ci arrivare alle conoscenza più affidabili ma è anche
un’impresa che dimostra una potenza straordinaria (vd. enormi scoperte scientifiche dell’epoca
Einstein, meccanica quantistica, ecc.) ed è quindi degna di analisi filosofica.
Il movimento prende come risorsa per affrontare quello che stava accadendo la logica. Verso la fine
dell’800 la logica ( Frege) viene strutturata come un sistema formale con un linguaggio formale,
che è estremamente potente nelle sue capacità espressive indipendentemente dal contenuto. La
logica aristotelica non riusciva ad entrare dentro le predicazioni, ma nell’800 questo si raggiunge (f
di x), inoltre la logica ha una struttura assiomatica come la geometria, si definisce l’uso dei termini
primitivi, come devono essere messi insieme per dare origine a forme accettabili e come possono
essere utilizzati nei ragionamenti.
Un aspetto importante è lo sviluppo del cd. programma logicista: l’idea che attraverso la logica si
possa dare fondamento alle teorie matematiche (Frege, Russel), fondamento vuol dire che
utilizzando le regole deduttive della logica e alcuni elementi primitivi che introduco ad hoc ( in
particolare la relazione di successore e di insieme) io definisco per esempio cos’è un numero,
un’operazione, l’algebra ecc. Questi pensatori quindi capiscono che la logica è uno strumento
potente. Ma c’è anche un altro aspetto, perché io devo fondare sulla logica la matematica? Cosa mi
interessa definire un numero? Io ho già i numeri e li uso...Qui entra il grande concetto che sarà
dominante nel movimento è che noi sì abbiamo teorie scientifiche, ma per capire come manipolare
la teoria, cosa la teoria mi dice, devo capirne la struttura logica, ma essa non è univoca ma è frutto
di un’analisi che convenzionalmente isola gli elementi di base (questo è molto importante).
L’analisi logico linguistica serve a dare una struttura ordinata, che certo io uso già (ci torneremo).
L’altro elemento importante è la filosofia del linguaggio (Wittgstein). Logica e filosofia del
linguaggio si uniscono fortemente tra di loro.
Citazione di Carnap vd “mentre la metafisica pretende di occuparsi dei fondamenti ultimi della vera
essenza delle cose la logica della scienza (filosofia) si tiene lontana dalle cose. Tutto quello che si
può dire delle cose spetterà alle singole scienze di formularlo”: c’è un aspetto provocatorio, i
problemi che hanno attanagliato la filosofia per secoli li risolviamo noi. Hanno la percezione di aver
trovato un sacro Gral filosofico in un mondo che sta cambiando. La filosofia non si occupa più delle
cose, il termine metafisica assume una connotazione spregiativa, poi ci sono le scienze e in mezzo
la nuova filosofia.

Temi (che andremo a vedere)

35
La demarcazione: la distinzione tra ciò che è scienza e non è scienza. Qui ci sono due linee quella
metodologia e quella del significato, ma sono collegati tra loro e lo vedremo.
Eliminazione degli pseudo problemi della metafisica sempre per mezzo del criterio
verificazionista del significato (Carnap proporrà una visione più complessa).
Concezione della filosofia come scienza di secondo ordine.
L’importanza dell’analisi logico linguistica.
La particolare forma di empirismo che viene sviluppata; per lo più si adotta una prospettiva
fondazionalista.

Il verificazionismo
Nella filosofia del linguaggio il significato è una condizione posta sul mondo tale che se il
mondo soddisfa questa condizione l’enunciato è vero, altrimenti è falso. Solo gli enunciati
dotati di significato possono essere veri o falsi. Ma come deve essere fatta questa condizione?
Bisogna distinguere tra enunciati analitici (di cui parleremo dopo) e gli altri. Un enunciato non
analitico e quindi sintetico è dotato di significato (talvolta l’espressione è contenuto cognitivo ) e
ha valore di verità se e solo è in linea di principio verificabile tramite l’esperienza, altrimenti è privo
di significato e quindi incapace di essere vero o falso.
Wittgenstein : la prima interpretazione storica di questa visione del significato è di tipo non
operazionale (che non è quella che passa nell’empirismo logico), cioè il significato ci dice
semplicemente quali caratteristiche deve avere il mondo affinché l’enunciato sia vero.(es. in piazza
Capitaniato è atterrato un elicottero tutti sappiamo come deve essere fatto il mondo perché
l’enunciato sia vero). Questa concezione è presente nel Tractatus (Wittgensetin ha però tutta una
sua metafisica), comprendere una proposizione significa comprendere se essa è vera.
Tuttavia in seguito W stesso modifica la sua teoria in senso più operativo: il significato di un
enunciato coincide non più con le condizioni di verità ma con le condizioni o metodo della
verificazione, cioè non mi basta sapere come è fatto il mondo per sapere se è atterrato un elicottero
in piazza ma devo anche sapere come posso verificare questo fatto. Quindi comprendere un
enunciato vuol dire conoscere l’insieme delle osservazioni possibili che lo verificherebbero, se un
enunciato non ha una condizione di verificazione ovvero non vi sono osservazioni possibili in
grado di verificarlo, l’enunciato è privo di senso è incomprensibile e quindi non può avere valore
di verità.
Questa è una declinazione particolare dell’empirismo, quello classico di Hume era di origine
genetica (tutte le nostre conoscenze derivano dalle osservazioni sensoriali), qui non si passa per la
genesi, non interessa quello che avviene nel soggetto ma si passa all’analisi del linguaggio
(linguistic turn). L’analisi del linguaggio diviene lo strumento per penetrare i problemi filosofici e
il fondamento della conoscenza. Nell’800 l’empirismo presentava oltre a elementi genetici il
problema della giustificazione induttiva.
Nell’interpretazione neopositivista la condizione di verità di un enunciato viene interpretata in
riferimento alla procedura attraverso la quale può essere stabilita la verità di un enunciato e la
comprensione di un enunciato vien identificata con la comprensione di tale procedura. Se non si
può individuare alcuna procedura per verificare un enunciato allora questo deve essere
considerato privo di significato, privo di contenuto cognitivo.
Es. io posso dire che la tigre di Liguabue è molto bello, questa azione è buona, quali condizioni di
verità associo? Quale metodo di verifica associo? Secondo questa visione sono costretto a dire che è
priva di significato questa asserzione, e quindi non è né vero né falso. Questa è la versione più
estremista ma non è stata sostenuta da tutti gli autori nelle loro fasi.
Bisogna distinguere il piano individuale dal piano della verità da quello della comunità, io possono
non conoscere il metodo ma altri sì.

36
Esempio di Schilick: “portami in un paese in cui il cielo è tre volte più azzurro dell'Inghilterra”,
tutti i termini indicano di per sé qualcosa di reale,ma la struttura sintattica fa sì che io non abbia un
criterio chiaro per verificarlo.
Un problema immediato di questa proposta è che non sembra facile definire le procedure
accettabili e quali no. Vengono proposte due grandi interpretazioni del termine verificabile, una è
quella proposta da Schlick, la più estesa che è “verificabile in linea di principio”, logicamente
possibile, qualcosa che non violi le leggi fondamentali del nostro pensiero es. il principio di non
contraddizione. La seconda è quella di “verificabile attualmente”, che cioè non violi le leggi della
fisica (Carnap). La prima è una linea piu’ fissa mentre la seconda risente dello spostamento delle
nostre conoscenze delle leggi fisiche.
Esempi
Facciamo qualche esempio: “oggi a Mosca nevica e domani a Mosca nevicherà”, per oggi posso
immaginare dei metodi di verifica (mi collego su internet e verifico, ma qualche secolo fa non era
possibile) e quindi sulla base del primo criterio potevo immaginare di volare a Mosca e verificare,
dal punto di vista del secondo criterio la questione è più spinosa (non è chiaro, dipende dallo stato
delle conoscenze scientifiche e e anche dalla tecnica). Per quanto riguarda “domani a Mosca
nevicherà” come lo verifico? Lo verifichiamo attendendo.
Altro esempio Venere con dei frutti vd. oggi possiamo verificarlo nel passato no. Napoleone per
fuggire organizzò un ballo in maschera o Napoleone quella notte starnutì tre volte è più difficile ma
non diversa. Altro esempio : Ogni corpo nell’universo si espande in modo continuo ed uniforme
mantenendo le proporzioni spaziali inalterate con gli altri corpi non ce ne accorgeremo: questo è
privo di significato (prima di dire che tutta la metafisica è priva di significato ci sono problemi più
concreti da risolvere). Altri esempi “la signora aveva un vestito verde scuro che era di un rosso
intenso”, qui il problema è la costruzione sintattica, non i singoli termini, come l’esempio del cielo
azzurro. “l’essenza dell’uomo è la sua natura biologica, Dio è l’essere perfettissimo” qui manca il
dato empirico che verifichi l’essenza, o la natura biologia o Dio essere perfettissimo. Vd poesia
metasemantica : il discorso da un’impressione di significato utilizzando degli indicatori che
traggono in inganno (questo in filosofia avviene spesso, con i neologismi e i termini tecnici, perché
talvolta ci si appoggia su queste cose).
Ciò che è dotato di significato è scientificamente accettabile, altrimenti non ci può dare conoscenza
di nessun tipo, magari ci intrattiene, ci rende felici, ma non ci dà conoscenza. Questo produce una
reinterpretazione radicale dell’empirismo. Quindi la prima cosa è capire se tutte le parti del
discorso scientifico sono dotate di significato, altrimenti viene relegato alla metafisica.
Il problema è che molte parti delle teorie accettate non soddisfano questo ristretto criterio di
significanza, uno su tutti gli asserti universali che generalizzano. es. ho osservato 2000 smeraldi e
sono verdi e dico che tutti gli smeraldi sono verdi;questo può sostenere la verità ma non è un
metodo di verificazione, anche se possiamo pensare in maniera lasca che lo sia con il metodo logico
di Schlick, posso accettarlo come metodo di verifica? Questa sembra difficile, perché implica un
processo all’infinito. Ma questo metodo di formulazione delle leggi scientifiche è alla base della
scienza, dobbiamo dire che sono prive di significato?. Questo è il problema. Ci sono due diverse
strade: Schlick dice che sono privi di significato, perché gli asserti generali sono regole che
servono per dedurre gli asserti particolari che poi confronto con l’esperienza, sono regole che hanno
un ruolo logico (questo in linea con il primo Wittgstein). Carnap non è d’accordo.
Un altro aspetto molto problematico, che non vedremo, sono i termini disposizionali es. fragile,
infiammabile: che differenza c’è se dico questo bicchiere è fragile e questo bicchiere è rosso? Nel
primo caso dico che l’oggetto in certe circostanze si comporta in un certo modo, rosso no (queste
proprietà si dicono categoriche). Una delle possibilità è ridurre le proprietà disposizionali a quelle
categoriche es. struttura atomica, ma è un percorso difficile che Carnap cerca di intraprendere ma
che lo indurrà a modificare la sua versione del significato dei termini scientifici. C’è anche chi

37
sostiene che le proprietà categoriali sono disposizionali es. noi vediamo rosso se la luce ha una certa
lunghezza d’onda.
La distinzione tra discorso scientifico e non scientifico si gioca su due piani connessi; quello
metodologico e quello del significato. Per i verificazionisti un asserto che possa far parte del
discorso scientifico deve poter essere sottoposto a verifica sperimentale, e abbiamo già visto il
metodo ipotetico-deduttivo. Ovviamente il criterio verificazionista del significato si accorda
perfettamente con questo metodo, perché gli asserti scientifici sono quelli dotati di significato per
cui posso pensare un metodo di verifica. Pensiamo allo schema de metodo ipotetico deduttivo, noi
abbiamo una formulazione libera degli asserti generali, la deduzione delle conseguenze empiriche,
il test sperimentale e sulla base del test una freccia di conferma che va prima all’asserto della
previsione e poi all’asserto generale da cui la previsione era stata dedotta. Schlick non accetta
questo schema, perché per lui esiste la verifica che va dal risultato sperimentale alla previsione e si
ferma lì, perché l’ipotesi generale non è né vera né falsa, è una regola. Per Carnap no, perché lui
non parla di verifica ma sostituisce al criterio di verifica quello di conferma: l’asserto generale
non è verificato ma più o meno confermato dai risultati.
Qui abbiamo però la differenza tra il criterio di verificabilità di Schlick e quello di
confermabilità di Carnap, elaborato in un secondo momento.
Ma il criterio è da intendersi come condizione sufficiente o necessaria e sufficiente? Questo è
un altro dubbio che emerge, se un asserto è verificabile e dotato di significato, giocoforza io lo
posso introdurre nel metodo scientifico, la la verificabilità è condizione sufficiente o necessaria e
sufficiente (in questo secondo caso vien fuori un criterio rigido).

6.5.2021
Domanda: Popper è un sostenitore del metodo ipotetico deduttivo, il quale si concentra sulla fase
della conferma e non su quella della elaborazione della teoria; le fasi rimangono le stesse ma si
sposta l’accento su una fase piuttosto che sull’altra. L’induttivismo dell’ottocento si concentrava
sulla fase della formulazione di ipotesi generali che poi ovviamente andavano; invece il metodo
ipotetico deduttivo del primo novecento si sofferma sulla fase della conferma. Per es. Reichenback
e Carnap elaborano addirittura delle logiche induttive volte non a normare la scoperta, cioè la
formulazione della teoria, ma la fase della conferma.

IL verificazionismo abbiamo visto è una tesi che dice nella forma più estrema che gli asserti hanno
un significato se e soltanto se ad essi associamo delle condizioni di verifica; ieri non le ho distinte
ma esistono a questo livello due versioni; da una parte c’è chi identifica il significato con le
condizioni di verificazione (questa è la versione più forte del verificazionismo ma anche quella
meno diffusa); una versione più facile da accettare è che conoscere le condizioni di verificazione è
necessario e sufficiente a conoscere il significato. Sono cose diverse da una parte c’è una
identificazione, dall’altra si dice che conoscere le condizioni di verifica è necessario e sufficiente a
conoscere il significato. Ora se noi manipoliamo un linguaggio che ci permette di rispettare queste
condizioni e quindi facciamo solo asserti che hanno significato, allora i nostri asserti si inseriscono
perfettamente nel metodo ipotetico deduttivo, perché gli asserti permetteranno l’inferenza delle
conseguenze empiriche ( lo vedremo oggi meglio).
Però ieri abbiamo visto i due problemi: quello dei termini disposizionali e quello degli asserti
universali. Gli asserti universali anche se sono composti da termini enunciati in maniera
soddisfacente per il verificazionista, sono asserti però che si estendono su tutta una categoria di
circostanze od oggetti (tutti gli smeraldi sono verdi, oppure la legge di gravitazione di Newton si
applica a qualunque oggetto dotato di massa) ma questo può stabilire la probabilità ma non la verità
dell’asseto generale . Abbiamo quindi un problema perché per gli asserti universali la loro forma fa
si che le condizioni di verifica non sono attuabili perché vorrebbe dire esaminare tutti gli smeraldi.

38
Allora vi dicevo abbiamo due grandi strade quella di Carnap, più facile da accettare, che
indebolisce la condizione di verifica (accettiamo che gli asserti universali siano dotati di significato
perché abbiamo procedure di conferma non di verifica); dall’altro c’è la posizione intransigente di
Schlick che dice che questi enunciati universali sono di fatto privi di significato, sono né veri né
falsi (questo non significa che non giochino un ruolo importante nella pratica scientifica, il ruolo di
fungere da regole generali che permettono di inferire le predizioni empiriche),( questa visione la
ritroviamo non tanto in Hume quanto in Duhem).

Linguaggio e criterio di significanza


Una questione molto dibattuta è se il criterio di significanza debba essere pensato solamente per
particolari linguaggi o per le lingue in generale (la filosofia del linguaggio parte dall’analisi delle
lingue naturali). Schlick sostiene che sia una tesi che deve estendersi anche al linguaggio comune
oltre che a quello scientifico(non per le scienze a priori che oggi vediamo (?)). Carnap invece
modifica la sua posizione nel tempo e piano piano si disinteressa alla questione: dietro questo
disinteresse c’è l’idea che per usare in maniera efficace il linguaggio non abbiamo bisogno di
conoscere in maniera precisa il significato; solo quando utilizziamo il linguaggio tecnico scientifico
e passiamo alla formalizzazione del linguaggio ci poniamo i problemi che abbiamo visto.
Il linguaggio filosofico dove sta? È scientifico, comune, va formalizzato? Il criterio di significanza
è esteso da entrambi anche al linguaggio filosofico, il quale però gode di uno status speciale, il
linguaggio filosofico è una sorta di metalinguaggio perché non si riferisce alle cose del mondo,
come il linguaggio della scienza, ma ha ad oggetto il linguaggio della scienza. Il compito filosofico
è quello di discutere le teorie scientifiche e scovarne la struttura logica, è un lavoro che lo scienziato
non fa. Qui la concezione di scienza è molto ampia (anche economia, sociologia, ecc.). questo
sancisce lo status della filosofia come scienza di secondo ordine, come metascienza, che non è in
grado di sviluppare conoscenze di fatti del mondo ma soltanto delle strutture logico-linguistiche
della scienza.
Schlick cit. vd slide il punto di svolta nella filosofia. La “filosofia non è un sistema di asserti”,
(l’asserto è un’affermazione dotata di significato, che può essere vero o falso). Non formula
neanche asserzioni sul linguaggio, perché uno potrebbe chiedere il significato di queste parole e si
arriva sempre all’atto di indicare, nell’esibire il significato con atti reali. L’attribuzione di
significato avviene attraverso atti quindi. Non è una scienza, ma allora cos’è? È la regina delle
scienze anche se non è una scienza. Non è un sistema di conoscenza ma un sistema di atti, l’attività
per mezzo di cui viene rivelato il significato degli enunciati. Cosa sono questi atti? L’idea è che se
dobbiamo scoprire la costruzione di significati, o lo facciamo attraverso altre definizioni (il
vocabolario di una lingua che conosciamo) ma questo non ci aiuta molto, dobbiamo arrivare a un
punto in cui non abbiamo altre definizioni ed è il punto secondo S con cui noi indichiamo il
significato dei termini.
S introduce per primo la differenza tra linguaggio teorico e linguaggio osservativo, quando io
sono nel linguaggio osservativo ho dei termini che hanno una connessione immediata con elementi
della mia osservazione es. rosso, freddo, ecc. E questo riferimento non è più stabilito per mezzo di
parole: c’è il rosso.
Si genera a questo livello tutto un dibattito, che non ho esplorato in questo corso, su quelli che
vengono chiamati enunciati protocollari: sono quelle sì asserzioni formulate nel linguaggio
osservativo e che mi permettono di formulare descrizioni di fatti osservativi. Esiste una grande
divisione tra coloro che sostengono che gli enunciati protocollari hanno la forma: “qui ora è rosso”,
e quindi si formano a partire dai dati di senso o dati osservativi, come se vi fosse la possibilità di
individuare degli atomi osservativi e la posizione per es. di Carnap (fisicalista), secondo cui anche
questo linguaggio di base deve essere formulato in termini di oggetti: “qui c’è un tavolo”. Non
entriamo in questo dibattito.

39
Il ruolo della filosofia è di rendere trasparente questa rete di significati e la struttura logica, di modo
da ricondurla alle basi osservative.
Questo vocabolario, che indica questi dati atomici, non è detto collimi con quello delle lingue
naturali, è una costruzione formale del linguaggio e viene contestato in seguito da tutti coloro, che
contestano il mito del dato, che questa costruzione è teorica e non naturale, il mondo non ci appare
partizionato in atomi osservativi. Questo è vero ma bisogna vedere se i neopositivisti erano così
ingenui (io ho i miei dubbi, c’era la consapevolezza che era una costruzione teorica, ma il problema
rimane aperto).

Il fondazionalismo
Un aspetto del progetto epistemologico neopositivismo è legato al fondazionalismo, e viene
sostenuto in maniera diversa dagli autori. Questa tesi asserisce l'esistenza di una base di
conoscenza acquisibili in modo immediato (“qui ora è rosso”, “qui c’è un tavolo”), che ricopra il
ruolo di base epistemica per ogni altra conoscenza possibile. Perché base epistemica? Perché sono
una serie di asserti la cui verità o falsità è immediata, basta l’atto osservativo a determinarla. E una
volta che abbiamo una base così, possiamo costruirci la piramide della conoscenza, perché ogni
altro asserto che noi formuleremo utilizzando dei linguaggi di un livello più teorico , possiamo dire,
se ricondotti a questa base osservativa m darà la possibilità di verificare direttamente quello che sto
asserendo. Questo vuol dire una costruzione molto complessa.
Es. Se dico che tutti i corpi nell’universo si stanno allontanando dalla terra perché noto lo
spostamento verso il rosso della luce che proviene dai copri celesti (vuol dire abbassamento della
frequenza e quindi l’oggetto si sta allontanando). Il primo asserto che tutti i corpi si stanno
allontanando dalla terra, è una conoscenza astronomica che devo verificare a partire da un
linguaggio osservativo, questo vuol dire una costruzione molto complessa perché ho tutte le mie
ipotesi su come funziona la luce, le frequenze, ecc. e traggo la conseguenza empirica che se la fonte
si sta allontanando, applicando una certa analisi sperimentale alla luce che mi viene dalle stelle, dati
i miei strumenti deduco x, y e z. Il linguaggio osservativo si riferisce alle osservazioni nell’apparato
sperimentale nel mio laboratorio, dietro c’è tutto il funzionamento degli strumenti , è una
costruzione enorme. Alla fine il progetto è che questo: questo asserto apparentemente semplice,
attraverso un complessissimo apparato teorico viene ridotto a un linguaggio che mi parla di ciò che
io vedo nel mio laboratorio o comunque nella mia osservazione.
Quindi dato un linguaggio L è possibile individuare un insieme O di asserti tale che il valore di
verità degli asserti in O sia non problematico, mi basta osservare, e quello di ogni altro asserto sia
riconducibile alla distribuzione di verità in O.
Combinando insieme fondazionalismo e verificazionismo abbiamo una particolare
declinazione dell’empirismo: l’empirismo logico. O contiene tutti gli asserti che descrivono i dati
osservativi in relazione ai quali stabiliamo le condizioni di verificazione dei nostri enunciati (è la
stessa cosa detta in modo tecnico che vi ho spigato). Non dobbiamo immaginare che visto che
isoliamo un insieme allora conosciamo tutti i singoli componenti dell’insieme, non vuol dire che
possiamo elencarli tutti, ma in linea di principio dobbiamo avere gli strumenti per poterlo fare in
linea di principio se ci occorre.
Per fare questo dobbiamo strutturare il linguaggio di modo che contenga un insieme di asserti O e
delle regole per creare la connessione: gli asserti teorici, poi le previsioni e poi il linguaggio
osservativo.
Carnap ha cercato di sviluppare in maniera più dettagliata di tutti questo programma di connessione
tra la parte teorica e la parte osservativa delle teorie scientifiche.
Ora vediamo una piccola parte di questo tentativo di Carnap per capire cosa diventa la filosofia per
questi autori.

Struttura delle teorie

40
Scienze empiriche sono fisica, chimica, psicologia ecc., scienze formali la logica e la matematica.
Le scienze formali hanno un doppio ruolo: forniscono il modello strutturale per eccellenza delle
teorie scientifiche, ovvero il modello assiomatico. In secondo luogo la logica costituisce uno
strumento per l’analisi delle teorie scientifiche, mentre le scienze matematiche sono lo strumento
imprescindibile per la correlazione dei dati delle teorie empiriche.
Le teorie nelle scienze empiriche devono poter esse messe in forma assiomatica!
1) occorre isolare e analizzare con chiarezza il linguaggio della teoria.
2) occorre individuare le asserzioni con funzione assiomatica: asserzioni la cui verità non è messa in
dubbio all’interno della teoria. Postulai, principi generali ecc, Questo ci ricorda Poincarè e il
convenzionalismo è una delle cifre fondamentali del neopositivismo, ma adesso lo qualifichiamo
meglio.
3) l’adozione del calcolo logico che deve permettere di dimostrare come dai miei assiomi derivano i
teoremi (cioè le conseguenze) ovvero le leggi meno generali della teoria e poi anche le conseguenze
empiriche. Questi saranno sottoposti al confronto con gli esiti sperimentali o osservativi.
Bisogna distinguere la questione di come si arrivi alla formulazione e alla conferma di una teoria
empirica dalla questione dell’asseto formale assiomatico che si ottiene tramite un’analisi e
ricostruzione delle relazioni logiche all’interno degli asserti della teoria.

Carnap
Una teoria scientifica è un sistema assiomatico, formale e interpretato.
Linguaggio: costituito da
- Termini logici e simboli matematici.
- Termini non logici: sono quelli osservativi, che abbiamo visto, e quelli puramente teorici (quelli
non osservativi).
Poi ci sono regole di corrispondenza o regole C (correspondence rules): forniscono la
connessione tra la parte osservativa e quella teorica e quindi danno l’interpretazione della teoria
perché se non la interpretiamo osservativamente non la possiamo verificare e neppure confermare;
queste regole dovrebbero connettere in qualche modo ogni termine teorico alla base osservativa.
I sistemi di assiomi : assiomi logici-matematici (tutte le leggi matematiche e logiche) e assiomi non
logici (leggi del moto newtoniano, la velocità della luce è la velocità limite dell’universo).
Le regole di significato o postulati di significato, su cui ci concentriamo.
Viene data una struttura assiomatica alla teoria e il linguaggio stesso ha i suoi assiomi, ora vediamo.

Il linguaggio di una teoria si distingue in un linguaggio teorico e uno osservativo, ciascuno dotato di
una propria struttura logica, ovvero si distinguono termini primitivi, regole di formazione e
regole di trasformazione. I termini primitivi sono i termini primi che fanno parte del mio
linguaggio, le regole di formazione sono come questi termini devono essere messi insieme in
maniera corretta (se io dico M andato male allo ieri, non uso i termini in maniera corretta),le regole
di trasformazione permettono di passare da un enunciato corretto ad un altro (alcune di queste sono
logiche es. seguono il modus ponens ( se P allora Q ma P quindi Q) altre sono più ricche, non
hanno a che fare solo con la logica ma con altre decisioni che io devo prendere all’interno del mio
linguaggio).
Nel linguaggio teorico le costanti primitive includono tutte le costanti logiche e delle altre costanti
che vengono dette descrittive e sono i termini teorici. Il termine elettrone è un termine primitivo
descrittivo e teorico nel linguaggio teorico. Nel linguaggio osservativo le costanti primitive
includono le costanti logiche ( la logica c’è sempre ovunque), le costanti descrittive e queste sono i
termini osservativi (es.rosso, bicchiere).
La formulazione rigorosa di una teoria prevede di fissare i postulati di significato nel linguaggio
teorico e di fissare le regole di corrispondenza che connettono termini teorici con termini
osservativi. Questa sono le indicazioni di come deve essere attuata la ricostruzione formale del

41
linguaggio scientifico. Nel linguaggio scientifico devo isolare tutti questi elementi. Il filosofo queste
cose le “tira fuori” da qualcosa che esiste già, non se le inventa suo piacimento.
All’inizio Carnap nel 1928 nella struttura logica del mondo propone una tesi fortemente
riduzionistica, sostenendo che un enunciato dotato di significato deve essere definibile nel
linguaggio osservativo, se cioè ogni termine non logico (descrittivo) è esplicitamente definibile per
mezzo di un linguaggio osservativo. Questa è una condizione troppo forte, sopratutto per il
problema legato ai disposizionali. Questa definizione permetterebbe di stabilire le condizioni di
verificazione, ma questo non è possibile per gran parte dei termini scientifici e questo è un gran
problema per i neopositivisti.
Carnap si è scontrato con difficoltà e nel tempo ha indebolito la richiesta di traduzione, rimane
l’idea che ci deve essere una certa connessione, ma quelle regole C non richiedono più una
traduzione nel linguaggio, cioè che prendo il termine elettrone = una lunga serie di termini
osservativi; noi l’elettrone non lo osserviamo, ma osserviamo conseguenze sperimentali
dell’interazione di elettroni ( come per i pianeti che si allontanano). E’ un’impresa titanica che
spesso non ha successo per problemi tecnici-logici.

Le verità a priori
Abbiamo visto come deve essere costruita la struttura di un linguaggio scientifico,come la teoria
deve poter esser messa in una forma assiomatica con una struttura logica chiara e che la verità degli
asserti o è immediatamente data dall’esperienza (asserti osservativi) oppure richiede una
connessione con gli asserti osservativi di vario grado (nella forma più intransigente richiede una
traduzione, che però come ho detto viene abbandonata perché ci sono problemi tecnici, in altre
forme richiedono una connessione meno rigida).
Ma le verità a priori non possono essere vere in base all’esperienza, esse sono importanti perché ci
sono tutte le verità logiche e matematiche. Un enunciato è vero a priori se ne giustifichiamo la
verità non sulla base dell’esperienza empirica (questa è la definizione minimale), ma allora da
cosa sono giustificate?
Consideriamo questa formula logica (è il principio del terzo escluso) P o non P, P sta per variabile
proposizionale (piove o non piove, sono stanco o non sono stanco, sono italiano o non sono
italiano). Queste formule sono particolari perché qualsiasi cosa sostituiamo a P sono sempre vere.
(ci possono essere problemi con termini vaghi o relativi es. Sono alto o non sono alto, il quadro è
bello o non è bello); è importante notare questo perché per i neopositivisti stai parlando di cose che
non hanno un significato, vogliono eliminare ogni elemento di vaghezza perché la scienza non
tollera vaghezza (successivamente si svilupperà una logica delle proprietà vaghe).
Questo è un esempio di tautologia logica, quindi quando incontro una tautologia posso dire che è
una verità a priori. Le verità a priori lo sono in quanto analitiche, si esclude del tutto la
possibilità di verità sintetiche a priori. Le verità analitiche sono tautologiche, dipendono dal
significato dei termini es. “L’elettrone ha carica negativa”, “scapolo è uomo non sposato”. Quindi
le verità analitiche dipendono dal linguaggio, non dal mondo o dai concetti o di come è fatta la
nostra mente, questo vale anche per la matematica, in cui introduciamo un linguaggio, specifiche
relazioni tra gli elementi del linguaggio e le verità dipendono unicamente da queste relazioni;
definiamo cos’è un numero, un successore di un numero, gli insiemi, le operazioni ecc. è una catena
di definizioni che non ha rapporto col mondo.
L’apriori quindi non è dato una volta per tutte ma dipende dal linguaggio e quindi se cambio le
convenzioni linguistiche cambiano, quindi le verità a priori diventano qualcosa di convenzionale
legato al linguaggio.

7.5.2021

42
Dipendendo dal linguaggio, le verità analitiche si possono modificare (nelle scienze
matematiche e logiche c’è una forma di cautela perché stanno a fondamento di tutta la nostra
conoscenza).
Carnap abbiamo visto più di tutti cerca di elaborare un linguaggio formalizzato. Vediamo un es.
preso da Carnap sull’importanza logica dei significati. Testo del 1952: si prendano il testo scapolo e
uomo sposato, possiamo formulare il seguente postulato di significato P1: per ogni X se X è un
scapolo allora non è un uomo sposato. Questo vuol dire che non esiste nessuno che è uno scapolo e
che è sposato. Una volta fissato questo postulato di significato, che è una formula logica, non
conferiamo nessuna regola di designazione per B ed M. Questo vuol dire che questa regola non
conferisce significato a B e a M. I postulati di significato, nonostante il loro nome, non ci dicono
qual è il significato dei termini e a cosa si riferiscono, ma stabiliscono solo la relazione logica dei
termini. Le regole di designazione, che ci dicono a quale oggetto si riferisce la parola, non sono
necessarie per l’esplicazione dell’analiticità, cioè per individuare quali sono le verità analitiche, ma
solo quella per la verità fattuale, cioè sintetica. Se io voglio sapere se un enunciato sintetico è vero
devo far riferimento al significato delle parole, perché devo far riferimento alla mia esperienza del
mondo, non lo conosco a priori ma a posteriori. Ma il postulato P1, questa relazione logica, ci
permetta di stabilire qualcosa che ci rivela una verità analitica, vale a dire l’incompatibilità delle
due proprietà. Paradossalmente se io in un linguaggio non conosco i significati ma conosco le
relazioni logiche potrei isolare le verità analitiche.
Una volta che io ho isolato i termini primitivi, se ho tutte le relazioni logiche di significato tra questi
termini, buttate giù in modo logico, io posso tirare fuori tutte le verità analitiche, non ho bisogno di
conoscere il significato. Questa è una visione molto forte che verrà criticata.
Sorge però una domanda spontanea? Se io non so i significati come posso buttare giù le relazioni
logiche? Qui possiamo possiamo rispondere in due modi, in primo luogo che i linguaggio c’è già,
noi analizziamo un linguaggio già esistente. Carnap risponde che questa non è una questione di
conoscenza ma di decisione, ecco l’aspetto convenzionalistico. Quando noi strutturiamo il
linguaggio scientifico queste decisioni devono essere prese es. il termine elettrone (il termine
elettrone è stato introdotto per spiegare certi fenomeni dei flussi elettrici, ma che altre proprietà ha
l’elettrone? Che proprietà può non avere? È difficile stabilirlo, ma queste decisioni devono essere
prese, anche se sempre in modo riveibile. Vd slide
Vediamo l’esempio del corvo nero vd slide, nello strutturare il linguaggio c’è sempre un margine di
decisione che non è arbitrario, ma io posso orientare il significato di corvo in senso più forte o più
debole, in modo tale da includere nero oppure no. Insomma posso decidere di includere o meno
nero nel significato di corvo e questa è una scelta teorica, devo avere delle motivazioni per farlo o
non farlo (es. se elementi genetici possono portare ad un corvo bianco). Lui qui lo sottolinea non
sulla base di quello che ho sempre visto, non ci dice sulla base di cosa, ma è ovvio, si legge tra le
righe se noi lo applichiamo ai linguaggi scientifici. Possiamo comprendere che non è compito del
logico (filosofo) prescrivere a quelli che costruiscono sistemi quali postulati scegliere, esse sono
liberi di scegliere i postulati guidati non dalle loro credenze riguardanti i fatti del mondo, ma dalle
loro intenzioni rispetto ai significati, val a dire i modi di usare le costanti descrittive, che sono i
termini (corvo, nero).
L’ultima slide è un po un riassunto: assiomi logici matematici (tutte le leggi della logica, tutte le
formule e teoremi metatetici), assiomi non logici (es. leggi del moto di Newton , della
termodinamica ecc.), i postulati di significato. Questi tre elementi non sono toccati dalla verifica o
dalla falsificazione, fanno parte delle strutture di fondo di ogni teoria, da cui dipende tutto il resto.
Attraverso la logica faccio tutte le inferenze che sono in grado di fare, interpreto gli asserti, che
possono essere interpretati, in un linguaggio osservativo, questo è un passaggio molto delicato
perché inizialmente viene interpretato come una vera e propria traduzione (ovviamente non la
logica e la matematica), qui sostanzialmente sono gli assiomi non logici che hanno questo
trattamento (tutto il linguaggio di base della parte teorica deve avere una traduzione per mezzo delle

43
regole C in un linguaggio osservativo. Questo mi permette di tirare fuori le conseguenze empiriche
della teoria. Le leggi possono essere pensate dal punto di vista logico nella forma se A allora B, se
si verificano certe condizioni ho certe condizioni, per tirar fuori le conseguenze empiriche della
teoria che poi andremo a testare dobbiamo assumere che le precondizioni delle leggi si diano: le
previsioni postulano che la prima parte, l’antecedente, si deve dare e dunque devo avere questa
conseguenza empirica e vado a verificare che ci sia.

Popper
Viennese di origine (1902) ebraica, la famiglia è costretta ad emigrare in Nuova Zelanda, dove
rimane 10 anni, e torna nel 46 dove si stabilisce a Londra. Nella sua formazione da giovane grande
importanza ha avuto la musica e la sua prima tesi di dottorato partiva da temi musicali.
Vd opere principali “la logica della ricerca scientifica”, “la società aperta e i suoi nemici”. La sua
formazione politica all’inizio è marxista ed è anche la prima delusione e la sua riflessione sulle
tematiche politiche ed epistemologiche sono connesse, il rifiuto della posizione marxista si basa
sull’idea che la storia non sia determinabile attraverso un’evoluzione (bisogna distinguere le leggi
scientifiche dalle tendenze della storia (trend) che non possiamo proiettare in avanti perché
cambiano di continuo le condizioni (le leggi scientifiche sono universali perché si riferiscono a
sistemi isolati) e non esistono sistemi storici e sociali isolati, quindi è scorretto cercare di prevedere
cosa accadrà) . Poi è nota la critica al marxismo, insieme alla psicoanalisi, come finta scienza
perché entrambi si presentano con una veste scientifica ma non possono essere trattate come scienze
perché non sono falsificabili (il marxismo quando le sue previsioni non si sono verificate ha
cambiato la sua teoria, e così Freud elabora teorie sulle cause dei sintomi psicotici che non sono
confutabili). Le teorie devono rischiare, non possono tentare di salvarsi. Poi abbiamo “congetture e
confutazioni” del 1963, e poi un altro (...evolutionary approach) in cui esamina la nozione di
oggettività, Popper è un realista e ha una nozione forte di oggettività e in cui presenta la sua teoria
dei tre mondi. Poi “una ricerca senza fine” , un’autobiografia.

12.5.2021

vd slide: “ a causa del modo …” fino alla pubblicazione in inglese i filosofi inglesi e americani mi
avevano scambiato per un positivista logico. Abbiamo visto che è una differenza tra nulla tra
verificazione e falsificazione perché quando verifichiamo rischiamo di falsificare. Il suo approccio è
radicalmente diverso rispetto ai neopositivisti anche se ci sono delle sovrapposizioni, perché anche
lui ritiene che l’analisi logica delle teorie abbia una sua importanza. Non andava neanche d’accordo
con i neopositivisti : l’episodio dell'attizzatoio alla fine degli anni 40 a Cambridge dove è stato
invitato dal gruppo dei neopositivisti (era presente Wittgstein). Il tema era se esistono veri problemi
filosofici oppure no, per i neopositivisti gli unici temi erano l’analisi del linguaggio scientifico e
invece P sosteneva che ne esistono e esordisce dicendo che già questo problema è filosofico e
Wittgestein la prese molto male e prese l’attizzatoio e lo agitò in aria a mo di minaccia.
Uno dei temi principali che li vede uniti è il principio di demarcazione, cioè la necessità di avere
un criterio per distinguere ciò che è scienza da ciò che non lo è. Abbiamo visto che i neopositivisti
risolvono questo problema facendo appello al criterio del contenuto empirico e quindi al criterio
della verificabilità, invece P prende un’altra strada, cioè non prende una strada che ha a che fare
col linguaggio, col significato dei termini anche se lui utilizza l’espressione contenuto empirico, ma
lo declina in modo radicalmente diverso.
Due esempi di non scienze sono i marxismo e la psicoanalisi. La distinzione in primis si sviluppa
sul piano metodologico, il piano dei metodi di approccio alle teorie scientifiche, cioè come le
usiamo per prevedere, come le scegliamo? Lui offre indicazioni metodologiche ma non ha nessuna
pretesa di dare un’indicazione esaustiva, ci sono elementi di sfondo che ispirano tutte le altre e
che non possono essere violate e che sono legate al principio di falsificabilità.

44
Dal piano metodologico deriva quello del contenuto empirico delle teorie, è derivativo rispetto al
piano metodologico.
Il criterio di demarcazione indica che le teorie sono scientifiche se sono passibili di trattamento
scientifico, ovvero se sono falsificabili. La prima regola del metodo è tentare di falsificare la
teoria.

La falsificabilità
La teoria non è falsificabile perché può essere sottoposta a test empirico e quindi risultare falsa,
questo non è un asserto pregnante. Quello che conta è il contenuto di falsificazione, la teoria, date
certe circostanze, deve proibire determinati stati di cose. La teoria deve avere come conseguenza
la falsità di determinati asserti di base (che poi vedremo). Dobbiamo partire da questi asserti che
vengono chiamati falsificatori potenziali. Il test deve cercare di falsificare la teoria, cioè riprodurre
le condizioni alle quali non dovrebbero verificarsi gli stati che la teoria vieta. L’intento è mettere in
crisi la teoria. Sottolineo che la falsificabilità è sì una questione di contenuto, ma è fortemente
legata al metodo. Una teoria è scientifica se si può trattare scientificamente, l’origine del pensiero
di P sta nelle riflessioni sul metodo.
Domanda: lui parla spesso di teoria come sistema di asserti (enunciati), sistema perché ci sono
relazioni logiche tra essi, che per come è strutturato indica un altro insieme di asserti che sono quelli
che devono essere falsi se la teoria è vera (i falsificatori potenziali). È tutto legato alla struttura della
teoria.

Slide la metodologia prima di tutto


(Khun, Lakatos e Fereyband partono da P e lo modificano chi in un modo e chi in un altro). Qui si
parla di cambiamento e di sviluppo, ai neopositivisti questo non interessa e chiaramente non è
un'invenzione sua (avrei dovuto inserire Mach che ha presentato una visione evoluzionistica della
scienza). Nessuna falsificazione definitiva di una teoria può mai essere prodotta (P non è un
falsificazionista ingenuo). Nonostante lui ci presenterà la falsificazione come metodo deduttivo
certo, un conto è la logica della falsificazione un conto è la metodologia della falsificazione che
deve tener conto di tanti altri fattori, anche di tipo logico , che esulano dalla falsificazione stretta. La
logica deduttiva è la più forte perché ci garantisce che se le premesse sono vere e il processo
deduttivo è stato condotto secondo le regole deduttive, allora la conclusione è vera. Il problema è
che posso sempre mettere in dubbio le premesse ed ecco perché la falsificazione definitiva non è
possibile, perché la falsificazione ha delle premesse.
La parola metafisica è qualcosa di fuori di luogo nelle scienze e non perché P non ne riconosca una
qualche importanza, ma qui strizza l’occhio a chi vorrebbe espungere totalmente la metafisica dalle
scienze. Egli sta presentando qui il cd atteggiamento dogmatico, cioè un modo di porsi contro cui
si scaglia e l'antidoto è il pensiero critico che lui propone, che parte dall’idea di mettere in crisi le
teorie, non di difenderle. Chi sostiene una cosa del genere? ( Nelle pagine da leggere lui parla dei
convenzionalisti, ma non si riferisce ai neopositivisti, che ha come target il convenzionalismo
francese di Poincarè e un po con Duhem ( in cui ci sono elementi convenzionalisti) e Mach (quando
parla di semplicità). La difesa dogmatica è questo atteggiamento di fondo di difendere la teoria
stabilita es. il marxismo. Bisogna fare l’opposto, cercare di criticare le teorie e di dimostrare che
sono false, questo produce crescita della conoscenza.

La critica all’induzione slide


P si riferisce esplicitamente alla critica humiana all’induzione e la accetta in toto, ma oltre a ciò
esprime un’ulteriore critica alla soluzione humiana di tipo psicologico. Le procedure induttive che
abbiamo visto nell’800 si potevano basare un un meccanismo psicologico. P dice che è vero che si
crea un’abitudine nel soggetto sulla base di una ripetizione di sequenze simili, ma il problema è
che la somiglianza non è un tratto oggettivo degli eventi o degli oggetti. Quante diverse

45
somiglianze possiamo individuare? Ci sono modi diversi di individuare somiglianze e cosa è
rilevante per dire che quegli eventi sono simili? Qui non confuta l’idea che la mente si crea un
habitus, ma questo habitus non giustifica una relazione di cause ed effetto.
La scelta delle somiglianze rilevanti è frutto di una scelta ma possiamo anche sbagliarci. Come
facciamo a scegliere? Come scegliamo il criterio di somiglianza giusto? Sembra che dobbiamo di
nuovo fare appello all’induzione. I criteri di somiglianza che in passato si sono rivelati utili
possiamo applicarli anche per il futuro. L’induzione è un vicolo cieco, le scienze non procedono
induttivamente, neanche nella fase della cd conferma.
P scende ancora più in profondità della critica di Hume, l’utilizzo di una tecnica induttiva deve
essere giustificato.

Utilizzo della deduzione vd slide


Siamo certi che le scienze non sono induttive. Ma allora come si arriva agli asserti generali?
Attraverso delle ipotesi. Anche la deduzione va usata con cura perché rischia di cadere in due errori
fondamentali:
1: in una vera e propria fallacia logica se pretende davvero di verificare (io confesso che non so mai
se prendere sul serio queste parti, sembra una polemica volta a portare all’estremo l’analisi logica).
2: un atteggiamento dogmatico della conferma che non ha alcuna base giustificativa.
La conferma e la verificazione si presentano così dal punto di vista logico : se L (una teoria) allora
C, io osservo C quindi L. Questa è una famosa fallacia dal punto di vista deduttivo: l’affermazione
del conseguente. E’ una critica che non si sa bene dove va a parere perché i neopositivisti non
ragionano così, perché per loro la conferma non era una deduzione.
Foto del cigno slide
l'altra strada è quella di sostenere che gli esiti di conferma delle previsioni empiriche siano in grado
di conferire maggiore credibilità alle ipotesi teoriche. Contro questa affermazione P fa notare che un
asserto universale si riferisce ad un numero potenzialmente infinito di casi. Per quanti cigni bianchi
io veda il numero delle mie osservazioni rimarrà sempre incomparabile con il numero complessivo
di istanze sulle quali si estende la legge. Stiamo cercando di vedere la conferma dal punto di vista
deduttiva (sta forzando un pochino la mano).

L’analisi logica degli asserti universali slide


si distinguono in:
asserti universali stretti: si estendono a un numero indefinitivamente alto di individui .
asserti universali numerici: si estendono a un numero finito di individui.
il problema è che l’analisi logica non distingua i due, perché l’assetto universale ha sempre la stessa
forma: (x) Fx → Rx
se noi ignoriamo questa differenza ci inganniamo e tralasciamo un aspetto fondamentale per la
conferma in quanto gli asserti universali stretti estendendosi a un numero indefinitivamente alto di
individui non possono ricevere un grado di conferma definito. Quindi noi ricorriamo a uno
strumento che ci nasconde una differenza fondamentale tra gli asserti universali (qui il target sono i
neopositivisti). Lui dice che è molto diverso se io devo confermare i due tipi di asserti e quasi
sempre il tipo di asserti con cui abbiamo a che fare è del primo tipo.
Smeraldi verdi slide
anche se sosteniamo che il numero di smeraldi o di cigni sia finito, questo per quello che abbiamo
visto non ci mette in acque migliori. Dal punto di vista logico “tutti gli smeraldi sono verdi”
equivale a un asserto congiuntivo molto lungo e quindi dal punto di vista logico lo si potrebbe
verificare (uno smeraldo è verde e un altro è verde ecc.). Rimane il problema se possono essere
verificati ma chiaramente questo non è possibile, perché dal punto di vista metodologico noi non
arriveremo mai a testare tutti gli smeraldi, quindi anche se è possibile dal punto di vista logico è
impossibile dal punto di vista metodologico.

46
In questi passaggi P sta cercando di delegittimare l’analisi logica delle teorie come unico
strumento di comprensione della scientificità delle teorie, la scientificità è strettamente legato al
modo in cui possono essere trattate le teorie.

Asserti universali puri ed asserti esistenziali puri vd slide


Gli asserti puri sono quelli che non contengono nomi propri o espressioni che indicano individui
particolari e non sono ristretti a regioni di spazio o intervalli di tempo. Questo è molto importante in
questo periodo perché la tradizione neopositivista cerca di definire in questo modo cosa è una legge
di natura, perché è valida per tutti i luoghi e tempi e non per singoli individui. Es. tutte le stelle
emanano calore.
Gli esistenziali puri ci dicono qualcosa di diverso : esiste almeno un X che ha quella proprietà (es.
esiste almeno un altro pianeta abitato da esseri intelligenti). Non si riferisce ad un individuo
specifico. Un’altra differenza importante, che abbiamo già visto è che l’universale puro è vero
anche se non esistono stelle, perché viene tradotto in questa forma: se qualcosa è una stella (non è
detto).L’esistenziale no, solo che quelli puri non si riferiscono a un luogo o tempo specifico (es.
esiste una piazza con tante statue).
Tra questi due asserti esiste un importante asimmetria, un asserto universale può essere
falsificato (basta scoprire una stella che non emana calore) ma non verificato (dovremo controllare
tutte le stelle). Qui parliamo di falsificazione solo dal punto di vista logico, perché diamo per
scontata la verità delle premesse, quando ragiono dal punto di vista metodologico devo prendere in
considerazione anche questo.
Un asserto esistenziale invece è l’inverso, perché può essere verificato ma non falsificato,
perché per quante istanze negative io trovi io non posso esser certo che nessuna stella irradia calore
(anche qui dovrei verificarle tutte per escludere che esista).

13.5.2021
Ho scritto la formula dell’esistenziale (vd slide). Un’altra differenza è che gli assetti universali di
solito vengono espressi in una forma condizionale (vd slide precedente: per ogni X segue DX allora
RX) e abbiamo detto che dal punto di vista logico sono veri anche se non c’è nulla che sia una
stella; se invece usiamo un esistenziale questo implica l’esistenza di quell’ X.

Slide asimmetria asserti universali ed esistenziali


Da una prospettiva logica esiste un’equivalenza (l’equivalenza in logica è tale che se è vera una è
vera anche l’altra e che se è falsa è falsa anche l’altra). Questo sembra ragionevole perché se è vero
che tutte le stelle irradiano calore allora è anche vero che non esiste nulla che non ha quelle
proprietà lì . Ma P dice che questa equivalenza che vale sul piano logico è ingannevole perché gli
asserti esistenziali, che non sono verificabili, lui li definisce come metafisici, nel senso di privi di
contenuto empirico. Non sono metafisici in quanto privi di significato come dicevano i
neopositivisti, ma in quanto non falisificabili. Più avanti lui dirà che gli esistenziali come tutti gli
asserti particolari possono essere falsificati congiuntamente ad un asserto universale (legge
universale) se permettono di fare previsioni falsificabili; per se io uso la legge di gravitazione
universale e ipotizzo che esista un pianeta nel sistema solare (un esempio non mi viene, questo non
è corretto perché indica uno spazio), io posso trarre delle conseguenze da questo esistenziale e se
queste conseguenze sono falsificabili, io allora posso falsificare l’insieme di teoria generale e
asserto esistenziale. Qui insomma dice che gli asserti esistenziali puri, presi da soli non sono
falsificabili.

Sistemi assiomatici
Questa parte del testo è particolarmente complicata perché lui non rigetta completamente l’utilizzo
dell’analisi in termini assiomatici, ma lui rigetta un uso sia convenzionalista e sia empirista di

47
queste analisi. In questa slide ho cercato di fare un esempio di modo da capire cos’è un sistema
assiomatico, cos’è un'interpretazione e come valutare la verità di una interpretazione. Questo
fornisce le basi per comprendere un’espressione che si chiama “definizione esplicita”. A partire da
questo lui fa tutto il suo commento contro l’empirismo e il convenzionalismo. Questi esempi non
sono presi da P ma li ho inventati io. Gli assiomi li abbiamo visti con la geometria euclidea, ma lì
c’è sempre un grande problema che per quanto uno cerchi di astrarsi dal significato dei termini
impiegati non può non conferire loro già un'interpretazione (punti, piani, ecc.). facciamo fatica a
considerare un sistema di assiomi astratto: quindi io vi presento i termini primitivi P ed I e le
relazioni e le relazioni sono star e V. poi mettiamo insieme gli assiomi: il primo dati P1 e p2
comunque presi P1 sta a P2 come P2 sta a P1. Assioma 2: se P1 sta a P2 allora non si da che P2 sta
a P1. Assioma 3: non si dà che P sta a P. assioma 4 dati P1, P2 e Pn esiste un I tale che P1 v I, P2 v
i, Pn v I.
Quando prendiamo una teoria fisica o geometrica e la assiomatizziamo, tiriamo fuori un’ossatura di
questo tipo, che è indipendente dall’interpretazione da cui siamo partiti, solo che quando uno ci
pensa fa fatica a fare l’interpretazione inversa.
Adesso vediamo tre diverse interpretazioni:
1) P è un numero naturale, i è un insieme di numeri, star è essere prima di, v è appartenere a.
Controlliamo se soddisfa gli assiomi: li soddisfa.
2) P=persona I=famiglia *=essere figlio di <=essere membro di: non soddisfa perché non tutte le
persone sono in relazione di padre e figlio.
3) P= istanti di tempo I= intervalli di tempo *=essere simultaneo <= essere dentro . Non soddisfa
perché tra l’altro non tutti gli stati sono simultanei.
La prima soddisfa e si chiama modello degli assiomi. Ma c’è un’altra valutazione che possiamo
fare: una volta che abbiamo interpretato questo sistema possiamo chiederci se quello che otteniamo
è vero o falso. Le ultime due non sono interpretazioni del sistema chiaramente. La prima è vera o
falsa? L’interpretazione ci dice se soddisfa gli assiomi, non ci dice se il sistema è vero o falso. Per
vedere la verità o falsità dovremo confrontarlo con il mondo di cui il sistema parla, in questo caso
col mondo dell’algebra dei numeri naturali. Dobbiamo cioè vedere se questi assiomi una volta
interpretati esprimano qualcosa che nella nostra matematica di base diamo per scontato e riteniamo
vero. Quindi ci sono due livelli: uno è il livello se l'interpretazione soddisfa gli assiomi, l’altro è
che una volta che il sistema sia interpretato esso sia vero o no.

Adesso andiamo a costruire la nozione di definizione esplicita (vd slide). Possiamo osservare che il
sistema di assiomi non interpretato è un sistema che non può essere considerato né vero né falso.
Un’interpretazione conferisce significato ai termini primitivi. Un’interpretazione può soddisfare o
non soddisfare un sistema di assiomi, se lo soddisfa dà origine ad un sistema che può essere valutato
per quanto riguarda la sua verità . Io potrei anche definire dei termini a partire da P e I, e quindi non
son più termini primitivi, potrei dire che se esiste un solo P che ha la relazione v con I, allora P è
identico a G. G è un termine definito, non primitivo, perché è stato introdotto a partire da relazioni
con altri due termini. Quando si analizza una teoria in questo modo si cerca di mettere ordini tra i
termini, cosa viene prima e cosa viene dopo, cosa è primitivo e cosa è definito (quindi
un’operazione molto complicata). Il sistema di assiomi nel suo insieme pur non conferendo
significato ai simboli del suo linguaggio, stabilisce delle leggi che ne vincolano il possibile
significato cosicché alcune interpretazioni sono in grado di soddisfare il sistema mentre altre no.
Dunque gli assiomi danno una definizione che potremmo considerare minimale dei termini
vincolando di fatto il significato di ciascuno a quello degli altri . I termini a quel punto non possono
assumere un’interpretazione indipendente l’uno dell’altra. Quindi non è una definizione in senso
classico.
Altra slide definizioni implicite : i tre principi della meccanica di Newton (vd). Questi tre principi
che vengono trattati come assiomi sono interpretati, ci dicono molte cose, ma ammettendo che siano

48
tre assiomi non ci dicono cosa è una forza ma cosa fa una forza. Allora possono essere presi come
definizioni implicite del concetto di forza (quello che sosteneva Poicarè (?)). questo vuol dire che
qualsiasi cosa sia una forza deve soddisfare queste regole. Allora la domanda è: se io ritengo che
questi tre principi mi diano una definizione implicita di forza potrò trovare una forza che li
falsifica? No, perché se trovassi per assurdo nel mondo una forza che viola questi tre principi,
quella non sarebbe una forza. Quando dei principi assumono il ruolo di assiomi non possono essere
falsificati, lo abbiamo visto parlando delle definizioni implicite.

Adesso vediamo le due visioni che non soddisfano P: convenzionalista ed empirista.


Convenzionalista : Se gli assiomi sono considerati delle convenzioni si dice a volte che forniscono
definizioni implicite delle idee che essi introducono; (P passa tranquillamente dall’usare termine,
all’usare concetto, all’usare idea).Ogni sistema di concetti (interpretazione) che soddisfa un sistema
di assiomi può essere chiamato un modello del sistema di assiomi. Una volta effettuata
l’interpretazione ciò che ottengo, nella prospettiva convenzionalista è un sistema di verità
analitiche, in quanto gli assiomi sono stati adottati per convenzione. Tale sistema non può quindi
essere interpretato come un sistema empirico, cioè falsificabile. Non possiamo più porci la
domanda che abbiamo visto prima se sia vero o falso. Se noi incominciamo ad essere
convenzionalisti su molta parte delle nostre teoria scientifiche si dispiega la correlazione tra essere
convenzionalista ed essere dogmatico, perché noi non siamo disposti a mettere in discussione . Le
motivazioni possono essere tante dice P: una è la ricerca di sistemi semplici, e una volta trovato un
sistema semplice lo difendo ( qui il riferimento è a Mach). Tale sistema non può quindi essere
interpretato come empirico dal suo punto di vista, perché non è falsificabile (il contenuto empirico
è dato dalla falsificabilità della teoria).
Visione empirista
Come possiamo interpretare un sistema assiomatico come un sistema di ipotesi empiriche? I
termini primitivi contenuti negli assiomi non devono essere considerati come implicitamente
definiti dagli assiomi, ma come costanti dotate di un significato. Come abbiamo fatto prima, io
interpreto i termini e poi ci chiediamo se è vero o no. Non sono gli assiomi a dettare legge ma il
mondo. Questo vuol dire che quando assumiamo un valore a P a I, o alla parola punto o linea,
quell’assegnazione è diretta e prescinde dagli assiomi, non è guidata dagli assiomi (anche se deve
soddisfare il sistema). Per esempio l’espressione «linea retta» o «punto» che compaiono nel sistema
di assiomi della geometria non sono da considerarsi alla stregua di P e I visti sopra ma come già
dotati di un proprio significato: «raggio di luce» e «intersezione di raggio di luce». Se ragioniamo
in questo modo il sistema di assiomi da noi prodotto può anche rivelarsi falso.
Tutto gira intorno al concetto di definizione implicita, se gli assiomi sono considerati definizioni
implicite nulla di ciò che noi scopriamo può falsificarli, se invece non sono considerate come
definizioni sono trattati come asserti che vanno alla prova dell’esperienza e quindi abbiamo un
contenuto empirico.
Slide successiva: quindi diamo ai nostri termini primitivi dei significati fisici, del mondo e allora
possono essere accettai o rigettati. Ma come facciamo a fare questa operazione? Spesso si parla di
definizioni ostensive, utilizzato da Schlick. Normalmente le definizioni mettono in relazione
termini con altri termini, le definizioni implicite abbiamo visto sono diverse e mettono un vincolo di
valore (?). Per definizione ostensiva si intende un atto di correlazione tra un concetto esempio
«punto» o P con certi oggetti che appartengono al mondo reale, Schlick le usava per dare significato
ai termini del linguaggio osservativo ( qui ora è giallo) (la definizione ostensiva molti dicono la
ritroviamo nella fase infantile).
Però c’è un problema: i concetti della scienza negli assiomi sono universali (non parlo di questa
linea o di questo giallo, ma parlo in generale degli oggetti), ma quando associo l’associazione
avviene sempre sull’individuo. Quindi i concetti universali degli assiomi non li possiamo
definire ostensivamente ma attraverso altri termini, ma questo vuol dire che fatalmente nella

49
catena delle definizioni alcuni non saranno stati definiti, e questi? L’unica risorsa che rimane sono
le definizioni implicite, ma questo fa saltare il contenuto empirico del sistema.
Solo al livello di analisi logica del sistema non si vede tutto, manca una parte: quella di
vedere..diciamo che sono un convenzionalista, adopero una serie di assiomi come definizioni
implicite che non possono essere violate, c’è il problema metodologica di cosa faccio se trovo
qualcosa che viola questi principi.

La falsificazione
Vediamo come avviene l’atto di falsificazione che segue una logica di tipo deduttivo. La forma
argomentativa è quella del modus tollendo tollens (cioè negando nego). La prima premessa è un
condizionale; se t allora p. cosa costituisce t ?un insieme di asserti della teoria, un sistema, e le
condizioni iniziali. Quindi ho una legge generale e le condizioni specifiche a cui applico quel
principio e quindi faccio la previsione (es. la legge dei gas). La premessa seconda è: non p; vuol
dire che ho preso la legge, le condizioni iniziali che devono descrivere in modo dettagliato come
applico la legge, ho tratto le conseguenze empiriche (se t allora p) e sono andato a verificarle (p
falsificarle). Quindi ho fatto il testo e ho trovato non p, questo perché p era definito in modo molto
preciso (es. una temperatura). Il punto è che gli esiti sperimentali devono essere molto precisi di
modo da sapere cosa non devo trovare in certe condizioni.
Continuiamo: la conclusione è non t. Attenzione vuol dire che ho negato l’insieme delle leggi e
delle condizioni iniziali, questo ci ricorda Duhen (P non è un falsificatore ingenuo). Non ci dice
quale premessa è falsa, dal punto di vista logico la falsificazione è rigorosa ma ci sono dei problemi
perché comprende la teoria e le condizioni iniziali.
Vediamo cosa fa il convenzionalismo di fronte a una possibile falsificazione: qui P fa riferimento a
Poincarè e specialmente a Mach. Le principali tesi convenzionaliste: Il principale pregio di una
teoria o sistema di leggi è la sua semplicità; lui parla con riferimento a Mach, ma potremmo
metterci anche altro : la bellezza della teoria, la sua capacità di convincerci ecc. il punto è che la
semplicità non è una proprietà empirica. Una teoria è frutto della libera creazione umana, è un
sistema di assiomi confezionato per essere semplice e quando questo sistema funziona bene lo
blindiamo e si ha l’atteggiamento dogmatico. P non descrive questa successione di stadi, ma è
sottintesa ed emergerà con forza on Khun.
Un ruolo fondamentale è attribuito agli asserti adottati per convenzione.
Tali convenzioni non sono falsificabili per mezzo dell’osservazione, sono queste stesse leggi che
regolano il corretto funzionamento dei nostri strumenti di misura. Pensiamo al caso del
cannocchiale a cui si è obiettato all’inizio di come funzionasse. Quindi se non ho una teoria degli
strumenti non mi dicono niente.
P si sta creando un nemico ad hoc, poco importa se c’è stato qualcuno che ha sostenuto questa teoria
nei dettagli.
Metodologicamente il convenzionalista cercherà di inertizzare in vari modi ogni potenziale
falsificazione: ipotesi ausiliarie ad hoc, (inoltre lo sperimentatore non è affidabile, gli
strumenti non sono stati usati nel modo corretto).
L’immagine del convenzionalista di P è di uno che annaspa per rimanere a galla, un po una
caricatura.
L’unico principio di scelta per selezionare un sistema teorico è quello di scegliere il sistema più
semplice e una volta scelto lo difendo ad oltranza e quindi per il convenzionalista non possiamo
perciò distinguere in modo non ambiguo tra teorie falsificabili e teorie che non sono falsificabili. Il
convenzionalista può mettere in discussione una legge empirica di basso livello, ma non tutto come
fa P (vediamo domani). Il criterio di demarcazione qui proposto salta!

14.05.2021

50
Ieri abbiamo visto la struttura del modo di falsificazione che è un modus tollendo tollens, questo è
solo lo scheletro logico dell’argomentazione dopo di che occorre fare altre valutazioni di ordine
logico-metodologico per capire cosa devo avere in mano per capire cosa devo avere per poter avere
un caso di falsificazione di una teoria. Prima vedremo le regole metodologiche descritte in termini
generali, che sono presentate in questa parte del testo in antitesi a quello che farebbe un
convenzionalista.
Slide: Vedremo che anche nella procedura di P, come in quella convenzionalista, sono implicate
delle decisioni ed è consapevole che il suo criterio di demarcazione non traccia una distinzione in
modo non ambiguo (ambiguo vuol dire che varia a seconda del tipo di decisioni che noi prendiamo
ed in particolare le decisioni riguardano la base degli asserti empirici). La situazione è molto più
complessa di quella che fa apparire il modus tollens. Il suo stesso criterio non si basa su termini
logico-linguistici (questa è una differenza con il criterio neopositivista che non si appellava solo alla
possibilità di verificare una teoria ma il presupposto era che questo si poteva fare a partire da una
analisi logico linguistica (quali sono i termini e gli asserti di base, le condizioni di verificazione
degli asserti di base del linguaggio osservativo).
È il metodo che noi applichiamo è importante, l’atteggiamento e quindi l’unico modo per evitare
il convenzionalismo è decidere di non usare i suoi metodi, ovvero gli stratagemmi per salvare la
teoria. Ecco la prima grande indicazione di P; lui dice che non può e non intende esaurire le
regole del metodo, ma offre indicazioni generali che non possono essere evitate. La prima è
dunque evitare le strategie messe in atto dal convenzionalista.
Slide: una norma di fondo è di considerare un atto di modificazione di una teoria come un atto
di creazione di una nuova teoria e quindi la nuova teoria andrà riesaminata da capo, se io
modifico qualcosa della mia teoria ho una teoria nuova (qui la questione non è quello di
identificazione di una teoria ma è un criterio metodologico, io devo avere questo atteggiamento di
considerarla come nuova e quindi devo vedere se è ancora falsificabile o se è meno falsificabile).
Possiamo ammettere ipotesi ipotesi ad hoc (cioè introdurre ipotesi per risolvere uno specifico
problema) , basta però che l’aggiunta delle ipotesi ad hoc non diminuisca il livello di
falsificabilità della teoria, cioè se l’ipotesi crea altre occasioni di falsificabilità estendendo
l’ambito previsionale della teoria.
Se io altero il significato dei termini ancora una volta la mia alterazione non deve incidere sulla
falsicabilità .
Tutte queste indicazioni possono essere sintetizzate nel senso che ogni volta che modifico una teoria
devo riesaminarla per vedere se la sua falsicabilità è rimasta uguale, è aumentata o è diminuita. Se è
diminuita non è una buona strategia perché vuol dire che stiamo cercando di salvare una teoria,
senza prendere in considerazione quello che possiamo imparare dalla refutazione.
Poi ci sono altre due strategie: una è quella di screditare lo sperimentatore o il teorico e in questo
caso P oppone un metodo che non va difesa del singolo sperimentatore-teorico, dicendo che il
rifiuto dei dati empirici potenzialmente falsificanti è possibile solo in particolare casi ed è da
escludersi il rifiuto quando i risultati sperimentali del testo sono intersoggettivamente controllabili.
Qui l’aspetto della intersogettività nella comunità scientifica è importante e vedremo parlando
degli asserti di base falsificabili lo sarà ancora di più.

Indagine logica sulla falsicabilità


Andiamo ad indagare meglio la struttura logica sulla falsificazione . Qui falsificazione è un termine
che oscilla tra il considerare la struttura logica del modus tollens che abbiamo visto e considerare
l’atto di falsificazione nel senso di refutazione di una teoria: il modus tollens è il primo atto ma non
è sufficiente a condurre al rifiuto di una teoria o a considerarla falsificata. La falsificazione
comprende quindi considerazioni successive al modus tollens. In altri termini il modus tollens per
funzionare deve avere alcune condizioni di fondo, che ora andiamo a vedere.

51
Asserto di base: in passato la abbiamo usata in relazione agli asserti del linguaggio osservativo
per i neopositivisti, adesso va distinta perché per lui è qualcosa di diverso dagli asserti di base
osservativi dei neopositivisti. Gli asserti servono come premesse di una falsificazione empirica,
hanno forma esistenziale e singolare; mi parlano dell’esistenza di un individuo in un certo luogo e
tempo c’è un cigno nero a st dove st sta per precise indicazioni spazio-temporali. Questa forma
degli asserti di base ricorda tutto il dibattito sugli asserti protocollari in particolare da O. Neurath (si
pronuncia noirat). Questi asserti possono contraddire asserti universali e quindi possono
fungere fa falsificatori potenziali, nel senso logico che abbiamo visto. Questi asserti di base
devono però aver due caratteristiche: sono asserti singolari esistenziali e devono poter essere
intersoggettivamente testabili.
Slide; il problema è che la verità degli asserti di base può sempre essere messa in discussione,
l’accettazione di un certo asserto come asserto di base è in ultima analisi sempre il frutto di una
decisione nell’ambito di un accordo intersoggettivo (devono essere rispettati tutti i crismi richiesti
per il test). Questa decisione che noi prendiamo circa l’accettazione di alcuni asserti di base può
dipendere certamente in qualche modo dall'esperienza empirico percettiva, ma non può essere
giustificata sulla base di questa esperienza. Gli asserti di base si differenziano dalla base di
conoscenze nepositivista che è costituita da un insieme di asserti immediatamente certi sulla base
dell’esperienza, la cui verità era giustificata dall’esperienza empirica (abbiamo parlato del
fondazionalismo che richiedeva di trovare una base di asserti a partire dalla verità e falsità dei quali
giustificare la verità o falsità di tutti gli altri e questa si era individuata in questi asserti formulati
con un linguaggio osservativo perché questo linguaggio non acquisiva il suo significato da altri
termini ma direttamente da una qualche connessione diretta con l’esperienza percettiva e quindi
questo permetteva a questi asserti di essere veri o falsi sulla base della mera esperienza. Questi
asserti devono essere strutturati come indicanti degli stati di cose del mondo che ci sono
immediatamente chiari).
P ritiene che questo non sia possibile che nessun asserto sia mai al sicuro dalla possibilità del
dubbio, di poter essere rigettato. Abbiamo detto che anche Carnap da un certo momento è anche lui
convinto che questi asserti di base non sono dati una volta per tutti e che quindi la nostra base è
rivedibile, come anche il nostro linguaggio oggettivo. Questa posizione è un po diversa da quella di
P perché Carnap non arriva a mettere in dubbia che si possano ritenere giustificati sulla base
dell’esperienza, il problema è che noi ci possiamo sbagliare. Per P non si può proprio arrivare ad
asserti che hanno questa caratteristica, su qualsiasi asserzione possiamo sempre sollevare di dubbi.

Slide: prendiamo in considerazione l’insieme di tutti gli asserti di base possibili (cioè non
contraddittori es. Qui c’è un quadrato rotondo), che conterrà anche gli asserti tra loro incompatibili.
Una teoria è empirica (falsificabile) quando divide questi asserti in due sottoclassi non vuote:
da una parte gli asserti di base compatibili con la teoria (non veri-derivati dalla teoria) e asserti di
base incompatibili con la teoria. Una teoria è scientifica quando divide in due questo insieme
(questa non è una proprietà della teoria in quanto tale (?)). In particolare il requisito minimo è che
la classe degli asserti incompatibili non deve essere vuota, almeno uno stato di cose del mondo lo
deve proibire. La teoria marxista non ne proibisce neanche uno, non perché è scritta in un certo
modo ma perché è trattata in un certo modo e lo stesso per la psicoanalisi: il problema è che le loro
ipotesi vengono sempre difese.
Slide: dobbiamo perciò scoprire che date certe condizioni segue un qualche effetto che non è
previsto dalla teoria. Abbiamo bisogno per procedere con la falsificazione non di un singolo asserto
che verifichi gli asserti proibiti dalla teoria, ma abbiamo bisogno di un’ipotesi falsificante, di un
asserto generale falsificante. Gli asserti di base esistenziali e singolari possono andare dentro dal
punto di vista logico allo schema del modus tollendo tollens: es. Tutti i cigni sono bianchi, nel luogo
x e nel tempo t c’è un cigno nero, questo contraddice l’universale ma questo non è tutto quello che
ci occorre per una falsificazione, perché una singola osservazione non fa testo (magari il cigno è

52
stato dipinto). Mi occorre un’ipotesi falsificante sarà costruita per es. se io trovo un animale che ha
queste caratteristiche allora avrà il piumaggio bianco, l’ipotesi falsificante sono che in date
circostanze (le caratteristiche del cigno) l’animale potrà avere un piumaggio nero. È un'ipotesi
che faccio e per avere valore empiriche deve essere anch’essa falsificabile. Questa ipotesi può
essere falsificata da qualcun altro rendendo l’ipotesi intersoggettivamente controllabile.
Qui avevo formulato un altro esempio vd: non p può anche essere più di un asserto singolare vd.
esempio legge del gas . Una singola osservazione non basta a mettere in discussione la legge,
occorre qualcosa di più (molte cose possono essere andate storte in una singola osservazione): ci
occorre formulare un’ipotesi contraria alla legge, cioè che tutte le volte che una massa di gas si
trova in P e V ha una temperatura diversa da 110°C ! questa è verificabile e se il risultato è positivo
ho una potenziale falsificazione della teoria. È importante che l’esperimento sia ripetibile indicando
bene le condizioni dell’esperimento. Già negli anni 30 P mostra sensibilità per temi che allora non
erano considerati rilevanti per la filosofia della scienza e che prenderanno sempre più peso nel
dopoguerra, P mette il metodo al centro.
Una teoria o anche una singola ipotesi generale che subisca più test empirici e che resista ad ogni
tentativo di falsificazione si dice corroborata. Io posso confrontare due teorie e una può essere più
corroborata rispetto un’altra. Non definiamo la corroborazione con la probabilità che la teoria sia
vera; più avanti lui proporrà il concetto di verosimiglianza.
Gli asserti di base sono fondamentali al processo di falsificazione e corroborazione e questi due
processi sono più strettamente legati tra di loro di quanto possa apparire ad un primo esame: posso
considerare un asserto di base che contraddice logicamente una teoria come dotato di potere
falsificante solo se corrobora un’ipotesi falsificante, che a sua volta è un’ipotesi generale e quindi
falsificabile (più cigni neri trovo, più l’ipotesi che i cigni sono neri è corroborata e quindi la tesi che
tutti i cigni sono bianchi si avvicina sempre più ad essere rigettata, a un certo punto si arriva ad una
massa critica e si prende una decisione da parte della comunità scientifica attraverso l’uso della
pratica).

19.5.2021
Modo materiale e modo formale
Introduciamo queste due definizioni perché P li prende direttamente da Carnap, e si concentra con
la concezione neopositivista. Abbiamo visto che con il neopositivismo il compito della filosofia è
quello dell’analisi logico-linguistica della scienza, la filosofia non si occupa più degli eventi e degli
oggetti ma il linguaggio. Se la filosofia parla di cose spesso incappa in questioni che non è in grado
di risolvere. La filosofia deve stare attenta a parlare e comprendere in un certo modo quello che
dice. Questa distinzione è introdotta da Carnap nella sintassi logica del linguaggio : il modo formale
è quando parliamo non degli oggetti o eventi cui sembrano riferirsi i termini del linguaggio ma
solamente di relazioni interne al linguaggio. Il modo materiale è quando parliamo effettivamente
degli oggetti cui sembrano riferirsi i termini del linguaggio.
Per capire questo vediamo un famoso esempio di Carnap: se diciamo che cinque è un numero
esprimiamo il modo materiale di parlare, in effetti noi sembriamo parlare di un oggetto, il numero 5.
dipende dal modo in cui noi confezioniamo l’enunciato non dal suo contenuto. “Cinque è un
termine che sta per un numero” questo è il modo formale di parlare, perché il termine numero a sua
volta è considerato nel modo formale di parlare, cioè non è un oggetto ma una categoria linguistica
che all’interno della mia struttura di linguaggio fa un certo lavoro. La tesi di Carnap è che spesso i
problemi filosofici risiedono nel fatto che possono essere risolti trasformando asserti nel modo
materiale in asserti del modo formale. Carnap non è un revisionista totale ma dobbiamo capire
cosa diciamo. Quindi ci sono problemi che per Carnap non hanno senso: es. esistono i numeri? E se
esistono che tipo di oggetti sono? Queste domande sono illusioni a meno che non le intendiamo
formalmente: come il termine numero viene usato nel mio sistema? Al termine numero viene
associata una posizione nel tempo e nello spazio ? Tutto è tradotto in relazioni linguistiche.

53
P invece non sembra voler accordare al modo formale alcun privilegio perché lui dice che il modo
materiale e formale sono traducibili l’uno nell’altro ed è quello che farà nelle pagine successive
e sono entrambi adottabili. Questo non vuol dire che lui non è indifferente alle questioni che
riguardano il realismo, lui si professa come un realista. Lui non dice che questa distinzione e
completamente inutile perché serve cmq a mettere in luce alcune differenze.

Occorrenze ed eventi
Adottiamo dice il modo materiale: un’occorrenza è un evento individuale che si verifica in una certa
regione di spazio e tempo. es. la caduta di un fulmine in pza dei Signori il 14.5.2021 alle 10.30.
l’evento è la caduta di un fulmine. Le occorrenze sono specifiche istanze di eventi, questo è il modo
materiale di parlare.
Passiamo al livello formale: diciamo che pk (k sta per il luogo, il tempo e l’individuo) è l’asserto di
base che descrivere il realizzarsi dell’evento P. pk descrive un’occorrenza. Ma un’occorrenza può
essere descritta da più di un asserto e tutti questi asserti sono equivalenti, cioè sono veri tutti
insieme. Allora Pk è la nostra occorrenza sul piano linguistico, sul piano del modo formale di
parlare ed è costituito da tutti gli asserti che descrivono pk (con la p minuscola).
Esempio: «Qui ora piove», «A Padova alle ore 12del 14/05/2021 piove», «In p.zza Capitaniato alle
ore 12 del 14/05/2021 piove» ecc. «Adesso a 45°24’57’’ N di latitudine e 11°52’58’’E di
longitudine piove» . Tutti questi asserti descrivono la stessa occorrenza.
Una teoria se è falsificabile proibisce non soltanto una sola occorrenza ma un intero evento. La
classe dei falsificatori potenziali conterrà dunque un numero illimitato di asserti di base (questo è
importante e poi lo rivedremo.)
Lo psicologismo
Ora P entra nella questione degli enunciati protocollari e il suo obiettivo è di colpire una certa
posizione epistemica che lui chiama psicologismo: è la posizione teorica secondo la quale la verità
degli asserti può essere giustificata non solo per mezzo di altri asserti ma anche per mezzo
dell’esperienza percettiva. La conoscenza immediata delle nostre esperienze sensoriali è in grado
di fornire giustificazione della verità dei nostri asserti.
Vediamo di approfondire il concetto di giustificazione: se diciamo che la terra è uno sferoide e non
è piatta, ci si può chiedere come facciamo a saperlo. Giustificare vuol dire fornire ragioni che
convincono intersoggettivamente e quindi produrrò degli altri asserti, descriverò dei fenomeni che
giustificano la mia asserzione. Quindi la prima giustificazione avviene con asserti e non con asserti
e fatti. Ma se andiamo avanti di asserto in asserto , la conoscenza dei fatti da dove viene? Prima o
poi arriverò a un punto in cui devo entrare in contatto con la mia esperienza del mondo. Questa è la
base di una certa forma di empirismo. Questo si traduce dicendo che ci sono asserti che sono
giustificati attraverso i dati sensoriali.
P dice che un dato sensoriale non è in grado di giustificare un asserto più di quanto possa fare
un pugno sul tavolo, quindi dice che i dati sensoriali non giustificano nessun asserto. Il
problema sta nella relazione di giustificazione. La relazione tra asserti è di interesse della
epistemologia ed è derivante dalla scienza l’altra è di interesse per la psicologia. Sono due tipi di
relazione diverse : una relazione tra asserti è diversa di una relazione tra un asserto e un’esperienza
sensoriale. Ora qui bisogna scegliere se trattarle allo stesso modo oppure no. P non nega che vi sia
una connessione tra le nostre esperienze sensoriali e determinati asserti che accettiamo, ma non è
una connessione giustificativa.
Slide: “qui c’è un bicchiere d’acqua” (vi dicevo che gli enunciati protocollari sono stati posti in due
modi, uno prettamente fisicalista (es. qui c’è un quaderno) e quella legata ai dati di senso (qui c’è
una macchia bianca, qui un suono di un certo tipo ecc. P non fa differenza e fa solo questo
esempio). Il punto è che non solo nelle nostre teorie sono presenti questi universali che non
possiamo giustificare sulla base dell’esperienza empirica, il punto che ogni descrizione usa un

54
universale; anche rosso ha una caratteristica universale (abbiamo visto che alcuni termini hanno una
natura disposizionale e anche rosso può essere costruito come disposizionale).
Questa asserzione (qui c’è un bicchier d’acqua) non è giustificabile a partire dalle nostre esperienza
perché bicchiere e acqua non possono essere correlati con specifiche esperienze sensoriali. Essi
denotano oggetti che tendono ad esibire un certo comportamento in date circostanze. Con Carnap
abbiamo visto che i disposizionali erano uno dei grandi problemi che lui aveva, e P dice che son
tutti disposizionali (anche se lui non usa questo termine).
Gli asserti protocollari
Sono asserti la cui verità è giustificata in modo immediato a partire dall’esperienza sensoriale.
Nella prospettiva neopositivista costituiscono la base empirica di conferma per tutti gli altri asserti
scientifici.
Sembrerebbe dunque che per i neopositivisti lo psicologismo non valga, perché è una relazione
sempre tra asserti (Carnap parla sempre nel modo formale di parlare ci dice P).
Tuttavia questa è un’illusione che dipende dall’uso di Carnap del modo formale di parlare: gli
enunciati protocollari non hanno bisogno di conferma, essi descrivono il contenuto immediato di
esperienza. In altre parole si tratta di psicologismo tradotto nel modo formale di parlare. Carnap di
fatto nella sua teoria parla solo di asserti, non esce mai dal modo formale di parlare ma per P è uno
psicologismo perché quegli asserti hanno una verità che è giustificata a partire dai dati sensoriali.
Oggettività
Per P la scienza deve fornire conoscenza oggettiva e bisogna distinguere dalla conoscenza
soggettiva (lui usa l’espressione la nostra conoscenza).
L’epistemologia (la filosofia della scienza, lui le identifica ma questo non è un dato scontato, è la
sua prospettiva come anche quella dei neopositivisti, ma l’epistemologia è lo studio generale delle
condizioni di conoscenza, tra cui abbiamo le conoscenza scientifiche) non deve chiedersi come noi
giustifichiamo la nostra conoscenza, bensì come possiamo testare gli asserti scientifici sulla base
delle loro conseguenze deduttive (tutto il metodo che abbiamo visto). L’obiettivo della scienza non
è avere conoscenze vere, la scienza rimarrà sempre un insieme di ipotesi ( o come dirà più
avanti congetture).
Per la logica e la matematica lo psicologismo è stato già riconosciuto, non è più così (abbiamo visto
che per i neopositivisti sono sistemi convenzionali, per lui no per quanto riguarda la logica
sopratutto) ed è un fatto del passato me per le conoscenze empiriche ancora no.
La nostra conoscenza personale può basarsi su sentimenti di credenza o convinzioni ma questo è un
campo che pertiene allo studio della psicologia e non dell’epistemologia. L’epistemologia deve
invece occuparsi delle connessioni logiche tra asserti scientifici (questa è una prospettiva astorica
che valgono sempre vs Khun, la tendenza nel dopoguerra sarà opposta, cioè di riconoscere la
specificità e la storicità).
Slide: Possiamo mettere in discussione tanto un ragionamento dal punto di vista logico quanto
un’asserzione che riguarda i dati d’esperienza sensibile. Prendiamo un ragionamento, lo smontiamo
nei suoi passaggi per vedere se le leggi logiche vengono rispettate. Se le leggi logiche sono
rispettate accettiamo come valido il ragionamento.
Anche le asserzioni empiriche possono essere messe in discussione: un asserto empirico deve essere
presentato in modo tale che chiunque conosca le tecniche rilevanti possa testarlo. Se attraverso dei
test siamo in grado di rigettarlo dobbiamo formulare un altro asserto che contraddica il primo e che
sia ugualmente testabile.
Questo è lo spazio di oggettività: lui dirà che la scienza non è costruita su una roccia dura ma su
una palude con delle palafitte infitte nella palude (le palafitte sono gli asserti empirici e quindi io
posso riformularle). Lo spazio di oggettività non si fonda quindi sulla roccia come voleva il
fondazionalismo ma su questo terreno provvisorio.
Torniamo a fare un po di analisi logica: prendiamo gli asserti empirici che possono falsificare la
legge dei gas perfetti (Boyle) PV=nRT ,P pressione, V volume, T temperatura. . supponiamo che

55
data una pressione P e un volume V 110 gradi centigradi sia una temperatura non compatibile con la
legge (cioè per V e P la legge prevede qualcos’altro). Occorrenza: in k la massa di gas G con
pressione P in un volume V ha una temperatura di 110 gradi. (l’occorrenza è parte di un evento
generale di questo tipo) Evento “una massa di gas con pressione P in un volume V ha una pressione
di 110 gradi. Ipotesi falsificante: ogni volta che una massa di gas si trova con pressione P in un
volume V ha una temperatura di 110 gradi
Per poter verificare occorre poter fare dei test molto precisi ed eventualmente produrre un’altra
triade di questo tipo, per esempio con una temperatura T compatibile con la legge. Quindi la
struttura di ciò che falsifica è complicata.

Asserto di base
Gli asserti di base sono asserti la cui forma logica è di asserti singolari esistenziali ( in una certa
regione di spazio e di tempo si verifica questo , questo e questo) e devono rispettare due condizioni:
- non possono essere derivati da asserti universali senza l’ausilio di condizioni iniziali. Questo è
ovvio ( se dico tutti i corvi sono neri non posso derivare in alcun modo che nel luogo x nel tempo x
c’è un corvo nero).
- un asserto universale e uno di base possono contraddirsi tra di loro : ovviamente altrimenti inoltri
asserti di base non possono funzionare come falsificatori.
Se un asserto base è incompatibile con una teoria vuol dire che la sua negazione è invece derivabile
dalla teoria :questo è un po complicato. Torniamo al modus tollens: esso si regge sul fatto che se io
falsifico il conseguente che deriva dalla teoria posso falsificare la teoria. Però qui dice che gli
asserti di base non derivano dalla teoria senza le condizioni iniziali. Se io dico tutte le masse di gas
rispettano quell’equazione in date condizioni vuol dire che in quelle condizioni va rispettate, ma
non vuol dire che in ogni spazio e tempo io ho quel risultato lì. Deriva dalle condizioni generali:
dovrò dire nello spazio e nel tempo preciso le condizioni sono rispettate e allora deriva. Ecco cosa
servono le condizioni iniziali, sono dati di fatto le condizioni iniziali.
Quello che è derivabile dalla teoria è la negazione dell’asserto esistenziale, perché la negazione
dell’asserto esistenziale non è un asserto esistenziale. Ora vediamo meglio.
Slide asserto esistenziale: c’è un corvo bianco in k (k è spazio-tempo). La sua negazione è : non c’è
un corvo bianco in k.
Nonostante le apparenze la negazione equivale ad un universale del tipo «Se qualcosa è un corvo
bianco non si trova in K» oppure «Qualsiasi corvo bianco non si trova in K». badiamo al fatto che la
negazione dell’esistenziale è ambigua, perché può essere che non ci sono corvi bianchi ma anche
che non ci sono corvi. La forma universale ci rende evidente questo perché dice: “se qualcosa è un
corvo bianco…”.
Da un asserto universale del tipo «Tutti i corvi sono neri» non possiamo ovviamente dedurre che c’è
un corvo nero in K! Tuttavia possiamo dedurre «Se qualcosa è un corvo bianco non si trova in K»
(nella lezione la slide era “se qualcosa è un corvo bianco si trova in k).
Vi sembra strano?
In realtà dipende da alcune proprietà logiche degli asserti. Un asserto della forma T->P (se T allora
P) è sempre vero quando l’antecedente è falso! Non importa cosa si P .
Per questo se accetto la verità di «Tutti i corvi sono neri», l’asserto «Se qualcosa è un corvo bianco
non si trova in K» ne deriva dal punto di vista logico . (di nuovo nella lezione è “se qualcosa è un
corvo bianco si trova in k).
Esistenziale puro: D’altra parte se affermo «C’è un corvo bianco nella regione K» posso inferire
«C’è un corvo bianco» ovvero un asserto esistenziale puro e questo può contraddire «Tutti i corvi
sono neri». Cioè da un asserto base esistenziale particolare io posso inferire un esistenziale puro
(esiste un corvo bianco).
Questo ci spiega come gli asserti di base, che sono esistenziali particolari, una volta cercati possono
funzionare come falsificatori. Dagli asserti universali non derivano gli asserti di base ma la loro

56
negazione, perché è equivalente a un asserto universale. Inoltre dall’asserto base deriva un
esistenziale puro il quale può entrare anch’esso in contraddizione con l’universale della legge, che è
puro perché le leggi non parlano mai di singoli individui ecc. (secondo P, è un affermazione che è
stata contestata).
Queste sono solo le relazioni logiche, ma non sono sufficienti perché abbiamo già visto, oltre a
quello che ci sta per dire ora, che abbiamo bisogno per accettare le asserzioni di base di poterle
testare e quindi in realtà abbiamo bisogno di ipotesi. Quindi metodo e logica si compenetrano
sempre. P si basa sulla logica classica: un asserto è vero p falso e non si danno altre possibilità. Lui
si ritiene un realista sulla logica, intendendo opporsi ai convenzionalisti (non si può scegliere una
logica). Le leggi logiche devono preservare la verità delle assunzioni, altrimenti no.
Oltre a questo bisogna anche tener conto di una condizione materiale che l’asserto di base deve
rispettare: deve menzionare eventi osservabili!
Qui uno potrebbe dire che abbiamo reintrodotto lo psicologismo perché l’osservabilità compete al
soggetto. Lui dice no.
La risposta di Popper ovviamente è negativa. L’osservabilità non è descritta in termini soggettivi
(ovvero ciò che il soggetto è in grado di percepire) ma in termini puramente fisici: gli asserti
base devono menzionare eventi che comportano una certa posizione e movimento di oggetti fisici
macroscopici.
Inoltre quella che qui egli ci fornisce non è una definizione, il termine «osservabile» non ha bisogno
di essere definito . Il termine osservabile può essere preso come un primitivo che io introduco nella
pratica epistemologica (non lo dice apertamente ma sembra che anche qui si deve prendere una
decisione).
Dogmatismo
A un certo punto lui cita Fries e gli attribuisce la descrizione di tre diverse possibilità. Il suo
trilemma è caratterizzato dal dogmatismo da una parte, dallo psicologismo dall’altra e il regresso
all’infinito e riguarda la giustificazione degli asserti. Il dogmatismo ritiene vi siano asserti che non
hanno bisogno di giustificazione (è uno dei modi con cui possiamo declinare la scienza dei
protocolli)(questa visione dogmatica forte non corrisponde per me alla visione del neopositivismo).
Lo psicologismo lo abbiamo visto e l’altra possibilità è il regresso all’infinito, giustificare gli asserti
passando da un asserto all’altro senza mai giungere ad un quid.
P dice in qualche modo che in qualche modo sono un po dogmatico e forse c’è un regresso
all’infinito e accetto un certo ruolo degli stati del soggetto, però gli accetto in modo particolare.
Quindi sostanzialmente dissolve il trilemma perché queste posizioni possono essere tenute insieme.
Ogni asserto empirico deve poter essere messo alla prova e ciò comporta come abbiamo visto altre
asserzioni empiriche che a loro volta possono essere messe in discussione .
Se vogliamo che i nostri test empirici conducano da qualche parte dobbiamo quindi ad un certo
punto decidere di fermarci in questo regresso dei controlli, e decidere di accettare determinati
asserti base. Ritenendoci provvisoriamente soddisfatti!
Anche gli asserti empirici sono dunque accettati in via ipotetica.
Se non fossimo in grado di fatto di raggiungere un tale accordo saremmo precipitati in una sorta di
babele delle lingue e l’intero edificio della scienza crollerebbe! Questa è un’affermazione forte ,
visto che la scienza procede troviamo accordi.
Si tratta di un forma di dogmatismo innocuo, in quanto provvisorio perché consapevole di basarsi
su una scelta rivedibile! La nostra accettazione di un asserto base dipende, nel senso che è
causalmente determinata dalle nostre percezioni, ma le percezioni non sono in grado di giustificare
le nostre asserzioni di base!
L’accettazione ha una sfumatura soggettiva: io come singolo individuo accetto un asserto di base
perché percepisco certe cose, ma questo non è giustificativo degli asserti, per quelli occorre fare dei
test e poi accettarli quando i test siano soddisfatti (lui dice è una forma di convenzionalismo si la
limitata, c’è un regresso ? Si ma a un certo punto io lo fermo).

57
Biologia della scoperta
«L’epistemologia diventa, da un punto di vista oggettivo, la teoria della crescita della conoscenza.
Diventa la teoria di come risolviamo problemi (lo ritroviamo in Khun), o, in altre parole, della
costruzione, discussione critica, valutazione e critical testing di teorie avanzate come congetture in
competizione tra loro (c’è questo elemento darwiniano). Ora io penso che rispetto alle teorie in
competizione sia meglio parlare della loro ’valutazione’, ‘stima’ o della ‘preferenza’ per una di esse,
piuttosto che della loro ‘accettazione’. Non che le parole significhino molto. L’uso di ‘accettazione’
non fa danni purché si tenga a mente che tutte le accettazioni sono tentativi e, come le credenze, di
passaggio e personali piuttosto che oggettive e di rilevanza sovrapersonale.»
La sua accusa sostanzialmente è di aver preso elementi legati alla formazione di credenze soggettive
e di averne fatto la base epistemica di una conoscenza che dovrebbe essere oggettiva. Ma questo
non funziona, il territorio dell'oggettività si disegna attraverso l’intersoggettività.
«Epistemology without Knowing Subject» In Objective knowledge (1972 )

20.05.2021
Thomas Kuhn (1922-1996)
Nasce come fisico però fa un’esperienza che cambia la sua vita intellettuale perché gli viene dato il
compito di fare un corso sulla storia della scienza e si rende conto che essa può essere molto
importante per le riflessioni sulla scienza (è stato allievo di Kojev). Nel 1957 pubblica la
rivoluzione copernicana, si trasferisce all’università di California in cui è presente Fayerabend e
con cui entra in contatto. La struttura delle rivoluzioni scientifiche esce nel 1962 e suscita molto
scalpore. Nel 1965 si tiene una conferenza a Londra in cui discute con Popper, Feyerabend (non
riesce ad essere presente) e Lakatos; qui risponde alle critiche ad alcune critiche che sono alla base
della seconda edizione della struttura delle rivoluzioni scientifiche del 1970.
Due temi sollevarono critiche in particolare: uno è quello dell’incommensurabilità e l’altra l’idea
che non vi sia un progresso scientifico.
La sua è una proposta dirompente rispetto a quanto abbiamo visto finora. Gli elementi di novità
sono:
- l’importanza fondamentale della storia della scienza (abbiamo già visto Duhen, però in lui
l’importanza della storia della scienza è legata alla formazione della mentalità critica dello
scienziato, mentre in K è legato alla filosofia della scienza).
- la nozione di paradigma e di scienza normale
- la questione dell’incommensurabilità.
Lui capisce che solo attraverso l’analisi storica si possa rilevare la dinamica effettiva dello sviluppo
della scienza. I neopositivisti, ancora più di Popper, sono scollegati dall’analisi della pratica
effettiva della scienza e si occupano del linguaggio. Con K la situazione si ribalta. I neopositivisti e
Popper presentavano dei criteri linguistici e metodologici sovra-storici, anche perché per questi
autori valeva la distinzione tra contesto della scoperta e contesto della conferma e loro operavano
sul contesto della conferma; per K questa distinzione cade.
Le strutture di analisi logico linguistica ed i metodi falsificazionisti costituiscono criteri di
demarcazione, di comprensione della scienza e delle indicazioni procedurali che sono presentati
come perfettamente definiti ed applicabili in modo del tutto indipendente dalle specifiche teorie cui
sono applicati.
K non si pone il problema di stabilire criteri di questo tipo e sostiene che siano del tutto
insufficienti, egli non intende fornire una norma per la pratica scientifica ma cerca di cogliere la
naturale evoluzione della scienza. C’è una sovrapposizione tra epistemologia e biologia che nasce
già con Mach e la ritroviamo in qualche modo in Popper ed in K è massimamente sviluppata.
L’intento di Kuhn per lo più non è quello di fornire una norma per la pratica scientifica, bensì
di coglierne la naturale evoluzione. Lo sviluppo cui vanno incontro le teorie scientifiche è

58
paragonato da Kuhn allo sviluppo di un organismo che risponde alle difficoltà ed alle minacce che
incontra nell’ambiente circostante.
Esattamente come per l’evoluzionismo l’adattamento degli organismi non implica che essi si stiano
evolvendo verso una forma ideale, così di una serie di teorie successive nel tempo non possiamo
dire che l’ultima sia più vicina delle precedenti ad una teoria vera ideale (questo è un grande tema
circa il finalismo e la teleologia, i testi darwiniani sono ambigui al riguardo perché sembra che
scardinano l’idea di un fine nell’evoluzione…). Questo K lo coglie alla perfezione, come
l’evoluzione non va verso una certa direzione, così l’evoluzione scientifica non va verso teorie che
si approssimano sempre più alla verità o che sono sempre più efficienti. Non c’è una nozione di
teoria ideale a cui le teorie scientifiche tendono.
Bisogna però distinguere, un conto è sostenere che noi non possiamo leggere apriori una linea
di tendenza in un percorso evolutivo proiettandolo sul futuro, un conto è dire che rileggendo il
passato non si possano trovare delle costanti. Si tratta di capire fino a che punto queste linee di
tendenza desunte dal passato possano essere proiettate in avanti (es. sembra che gli organismi
siano sempre più complessi (Feyreband). Questo è un problema che ha K e che rimane sospeso.
Il progresso della conoscenza scientifica non è descritto in termini di avvicinamento alla verità, ma
in termini di capacità delle nuove teorie di risolvere un maggior numero di problemi rispetto alle
precedenti. Questo anche è molto importante. Alla teoria successiva non è richiesto di risolvere tutti
i problemi di quella precedente più altri, per K la nuova teoria può non risolvere vecchi problemi
che erano gestiti dalla vecchia. Ma allora perché sceglierla?

«Crescita di conoscenza» significa aumento complessivo di capacità di risolvere problemi .


Le fasi del processo di crescita della conoscenza
- la fase di scienza immatura
- la fase di scienza matura che si distingue in 4 sottofasi:
1 la scienza normale
2 una fase di crisi
3 una fase di scienza rivoluzionaria
4 la risoluzione della crisi e quindi il ritorno alla scienza normale

Il paradigma
In quella conferenza a Londra molte critiche riguardarono la nozione di paradigma e K fu accusato
di presentare una nozione ambigua, ed in effetti è vero perché la presenta con due significati
differenti.
La prima concezione più ampia prende il nome di matrice disciplinare e quella più ristretta che si
chiama esemplare.
La matrice disciplinare è costituita da alcune teorie di base, strumentazioni, tecniche d’indagine,
valori epistemici ed assunzioni metafisiche. Le teorie di base sono di diverso tipo e ci spiegano
anche per es. come funzionano determinati apparati tecnici che utilizziamo. Questa evoluzione dirà
si può svolgere anche all’interno di alcuni aspetti della matrice disciplinare, per es. ci possono
essere innovazioni tecniche molto specifiche che però compiono una vera e propria rivoluzione; in
alcuni passaggi sembra moltiplicare questi passaggi evolutivi. I valori epistemici es. cosa è
importante andare a verificare per dare conferma a un’ipotesi teorica, quante volte un esperimento
debba essere ripetuto, in quali sedi ecc. infine anche le assunzioni metafisiche es. atomisti o no.

Scienza immatura
Nella fase di scienza immatura non abbiamo una matrice disciplinare ben stabilita, il lavoro degli
studiosi in gran parte non è rivolto alla risoluzione di problemi ma al tentativo di fissare gli elementi
del paradigma: trovare un accordo sulle teorie, sulle strumentazioni ecc. questa concezione di
accordo diventa l'elemento di base che determina il passaggio da una fase all’altra. Il termine

59
accordo nel linguaggio comune sottende una intenzione (ci mettiamo d’accordo per andare a
mangiare una pizza), ma in questo ambito non ci sono accordi di questo tipo perché per lo più è una
sorta di opinioni condivise che a un certo punto si diffonde nel gruppo della comunità scientifica. Ci
sono istituzioni (università, riviste) che influenzano questo processo, ma alla fine l’accordo è
qualcosa di impalpabile.
Quando si riconosce che sulla base di determinate teorie e l’uso di certe strumentazioni ecc. si è in
grado di risolvere un numero considerevole di problemi il consenso degli scienziati dà vita ad una
prima matrice disciplinare e si entra nella fase della scienza matura.
Secondo Kuhn alcune discipline come la sociologia e l’antropologia si trovavano ancora ad uno
stadio di scienza immatura.

Fase di scienza normale


Gli strumenti per mantenere il consenso sono le Università e poi K menzionerà i manuali, su questi
i giovani scienziati apprendono l’abc della matrice disciplinare. Questo struttura la forma mentis
dello scienziato.
Il vero elemento innovativo del pensiero di Kuhn, nonostante il titolo della sua opera più nota, non è
tanto legato all’idea della presenza di una fase rivoluzionaria, ma alla caratterizzazione dell’attività
scientifica nella fase di scienza normale.
Per capire la sua posizione al riguardo occorre far riferimento al secondo significato di paradigma,
quello più ristretto. In fase di scienza normale una matrice disciplinare riscuote successi per il fatto
che mostra di risolvere bene numerosi ed importanti problemi.
I problemi risolti diventano degli esemplari vale a dire dei casi paradigmatici in cui le teorie della
matrice sono state applicate con successo. Diventano esempi di come applicare con successo le
teorie scientifiche, esempi sui quali modellare anche la risoluzione di altri problemi. Nella fase
educativa lui dice avviene questo, l’esercizio è l’applicazione di una tecnica standard a un problema
da risolvere.
Faccio luce sua una distinzione che K non fa tra la nozione di teoria e quella di matrice disciplinare.
La nozione di teoria è ambigua, per si può dire che una teoria è qualsiasi legge generale che io
propongo; altri riservano la nozione di teoria a un livello di generalità molto elevato es. la
meccanica newtoniana e utilizzano altri termini per le leggi di livello inferiore es. generalizzazione
empiriche. In K non è tanto rilevante questa distinzione perché non sono rilevanti le distinzioni
logiche tra ciò che è più generale e meno ( a lui non interessano), quindi quando parla di teoria puè
parlare sia di leggi al più alto livello sia parlare di leggi universali di livello inferiore, perché
l’elemento cruciale non è la teoria ma la matrice disciplinare. All’interno della matrice
disciplinare le teorie possono modificarsi e variare. In fasi di scienza normale la matrice
disciplinare non viene toccata e gli scienziati sono risolutori di puzzle dirà, formati in un certo
modo.
Questi paradigmi o esemplari sono ciò che sostiene la fiducia degli scienziati nella matrice e
svolgono un ruolo fondamentale nella loro formazione. La fede nella matrice viene inculcata nella
formazione scientifica.
Gli scienziati sono formati all’interno della matrice, e ciascuno di essi ha tanto più successo quanto
più riesce ad applicare la matrice a nuovi problemi creando così nuovi esemplari. Il ricercatore
cerca prestigio personale nell’applicazione della matrice e quindi c’è una fortissima pressione a non
andare contro la matrice. Una sorta di pressione al conformismo.
Gli scienziati dunque, di fatto, non seguono né un metodo che prescrive la conferma delle ipotesi
come volevano i neopositivisti; né un metodo di falsificazione di ipotesi come voleva Popper,
cercano la soluzione di nuovi problemi. Se vogliamo individuare una direttrice nell’azione degli
scienziati possiamo dire che essi tentano di dare sempre più sostegno al paradigma applicandolo con
successo . Questa cosa non piace quasi a nessuno, è un’immagine della scienza che non piace.

60
Contesto della scoperta e contesto della giustificazione
Kuhn rigetta la distinzione tra contesto della scoperta e contesto della giustificazione. Non possiamo
distinguere tra il processo psicologico di pensare in modo creativo un’idea ed il processo logico di
giustificazione della verità di questa idea. Lo scienziato è importante a risolvere puzzle, a risolvere
il problema.
La posizione standard ritiene che riguardo al contesto della scoperta la filosofia della scienza non
abbia nulla da dire, Kuhn ritiene che focalizzandoci sul ruolo del paradigma possiamo invece
gettare una luce su questa fase, almeno parzialmente. L’esercizio sugli esemplari permette agli
scienziati di vedere i nuovi problemi e quindi di vedere possibili soluzioni per essi, perciò lo studio
e la comprensione degli esemplari funziona come un vincolo dell’attività di scoperta. L’invenzione
non è libera ma vincolata.
Più importante per Kuhn è la sua peculiare posizione rispetto al contesto della giustificazione: il
ruolo degli esemplari è pensato proprio in contrasto alla presunta azione di regole. Ciò che è
determinante per l’accettazione della risoluzione di un problema è la sua somiglianza alle soluzioni
paradigmatiche già offerte. Gli esemplari ricordiamo sono i problemi che sono stati risolti sulla base
della matrice disciplinare. La percezione della somiglianza non può essere ridotta a delle regole e
dunque ovviamente nemmeno a regole di razionalità come le regole logiche.

Difesa e crisi del paradigma


In fase di scienza normale la maggior parte della comunità scientifica ha cieca fiducia nella matrice
e non cerca di metterla in discussione ma di applicarla con successo. Sono come risolutori di puzzle
o di parole crociate!
I problemi che si rivelano non immediatamente trattabili sulla base della matrice, sono ignorati
oppure in qualche modo vengono resi innocui.
Occorre che la fiducia nel paradigma come matrice venga incrinata perché la comunità decida di
metterlo in discussione. Ciò avviene quando le anomalie o problemi irrisolti (lui li chiama i
rompicapo) si accumulano, potrebbe anche essere un evento.
A quel punto il paradigma entra in una fase di crisi e si cercano nuove teorie, apparati tecnico
strumentali ecc. per render conto dei problemi non risolti. Si incomincia piano piano a modificare la
matrice disciplinare.
Quando il paradigma entra definitivamente in crisi si affacciano nuove proposte e si entra in una
fase di scienza rivoluzionaria (lui fa esempi di piccole attività di ricerca ai margini). Lo scienziato
non è più un risolutore di puzzle, il puzze se lo deve inventare. In questa fase molte e diverse
proposte di modifica si fronteggiano fino a che una nuova matrice disciplinare si stabilisce
mostrando una superiore capacità di risolvere problemi. Riavviando una fase di scienza normale .

Incommensurabilità metodologica
Volevo prima chiarire con un paio di esempi cosa significa risoluzione dei problemi: es. il modello
planetario dell’atomo che è vuoto con un nucleo al centro e carica neutro, che piaceva molto ma ha
un altro problema, le cariche elettriche (gli elettroni) che girano intorno al nucleo col tempo
sarebbero dovute cadere sul nucleo. Questo è un problema da risolvere. Altro es. è quello
dell’esperimento di Michelson-Morley che non rileva la velocità della terra relativa a un etero
lumifero ; questo vuol dire che non c’è un etere lumifero ? Altro es. la questione del flogisto (c’è un
problema: la calce pesa più del metallo e si introduce un’ipotesi teorica che ci sono due tipi di
flogisto di cui uno ha un peso negativo). I problemi sono dunque dei conflitti tra il quadro teorico e
gli esiti sperimentali.
Le precedenti proposte epistemologiche si erano poste come obbiettivo quello di stabilire degli
standard oggettivi per la valutazione di diverse teorie. Kuhn ritiene che l’unico modo in cui
valutiamo la bontà di una proposta teorica è per confronto con una qualche teoria ritenuta
esemplare. Ma gli standard sulla base dei quali valutare una teoria possono cambiare

61
radicalmente, con il cambiamento di matrice disciplinare. (abbiamo visto prima che c’è una
differenza tra il livello della matrice disciplinare e quello della teoria).
La teoria di Newton che prevedeva l’azione a distanza, senza spiegarla, era inizialmente considerata
come un modello carente rispetto, ad esempio, alla teoria tolemaica e a quella cartesiana che
spiegavano il moto dei pianeti tramite la rotazione di sfere celesti e di vortici di materia.
Successivamente una volta che la teoria di Newton è stata accettata (perché risolveva molti
problemi applicata non solo alle orbite dei pianeti) ha costituito un nuovo paradigma e l’assenza di
un meccanismo adeguato a spiegare il moto dei corpi non è stato più sentito come un problema.

21.05.2021

Questo ha come esito che se i criteri per valutare le teorie sono interni alla matrice disciplinare non
abbiamo garanzia di poter confrontare tra loro teorie differenti su una stessa base di presupposti,
perché la matrice disciplinare è quella anche all’interno della quale noi individuiamo i problemi
rilevanti da risolvere.
Se le soluzioni ai problemi sono valutate per confronto con gli esemplari interni ad una certa
matrice allora soluzioni sviluppate sulla base di teorie di matrice diversa non sono
confrontabili.
Kuhn dovrà difendersi da molte critiche alla tesi dell’incommensurabilità, perché cadendo la
garanzia di poter sempre trovare una base per confrontare tra loro le teorie, per vedere qual è la
migliore, c’è una punta di irrazionalismo che emerge. Lui tra la prima e seconda edizione riceve
molte critiche e nella seconda risponderà e cercherà di far comprendere come essa non significhi
l’impossibilità totale di comunicazione tra chi opera entro paradigmi diversi e dunque impossibilità
di paragonare le teorie.
Lui riconosce tre diversi tipi di incommensurabilità: metodologica, osservativa e semantica.

Incommensurabilità metodologica
Diverse matrici disciplinari non solo includono diversi paradigmi per la valutazione delle soluzioni
ai problemi, ma spesso individuano anche problemi diversi da risolvere (es. prendiamo la
differenza tra la concezione di moto aristotelico e quella galileiana, nel momento in cui
consideriamo che lo stato di moto rettilineo appartiene a un corpo senza individuare alcuna causa
(appartiene naturalmente ai corpi), la causa deve essere individuata solo per i moti non rettilinei,
mentre la posizione aristotelica doveva individuare la causa anche per i moti rettilinei e aveva sullo
sfondo la concezione degli elementi che spiegava il moto).
La scelta tra teorie in competizione non avviene seguendo regole meccaniche e strettamente logiche
ma per valutazioni di alcuni fattori come la semplicità, la fecondità, l’ampiezza ecc. i quali però
lasciano ampi margini di incertezza nella loro applicazione. Le indicazioni metodologiche interne a
ciascun paradigma sono estrapolate dagli esemplari perciò sono fluttuanti .

Incommensurabilità osservativa
Abbiamo visto i neopositivisti che tentano di formulare una base epistemica oggettiva a partire
dalla nozione dei dati di senso e del linguaggio osservativo; abbiamo visto Popper che per
individuare la base oggettiva ricorre all’accordo intersoggettivo sugli asserti di base. In K la base
oggettiva va a farsi benedire.
La base delle osservazioni empiriche non è una base oggettiva. Noi vediamo ciò che le teorie che
accettiamo ci permettono di vedere. In quegli anni ha molto successo la tesi del carico teorico
dell’osservazione, l’osservazione è carica di teoria.
Pertanto non ci è garantito di poter confrontare teorie in competizione sulla base dell’esperienza
empirica onde decidere quale sia quella corretta.

62
Centrale è in proposito l’analisi di N.R.Hanson in Patterns of Discovery(1958 ). E’ un libro molto
bello da leggere.
Traendo soprattutto spunto dalla Gestalt Hanson difende l’idea che l’osservazione sia possibile a
partire dall’applicazione di schemi globali, i quali sono sensibili tra le altre cose alle teorie nelle
quali crediamo. L’osservazione è dunque carica di teoria ed il confronto non è mai tra una teoria e
dei dati puramente osservativi, né tra teoria ed asserti, ma tra una teoria ed un’altra teoria. Il
problema è che non ci sono logiche di confronto stabilite a priori esterne alle teorie stesse. Come
facciamo a decidere? Accade che storicamente si forma un consenso attorno ad alcuni metodi di
giudizio con lo stabilirsi di una matrice disciplinare
Cosa sono questi schemi globali? Keplero e Tycho vedono cose diverse quando guardano lo stesso
sole: l’uno vede un oggetto che sta fermo ed attorno al quale gira la terra e considera il suo moto
come un moto apparente, l’altro vede un oggetto che gira attorno alla terra il cui moto non è affatto
apparente. ( il processo percettivo è rapidissimo è questo dà l’idea che sia certo, che non abbia
processi al suo interno, questo però è fuorviante perché il processo percettivo è rapidissimo e vi
confluiscono tutte le informazioni contenute nella corteccia cerebrale che permettono di
categorizzare). Quindi hanno lo stesso stimolo ma il percetto è diverso perché applicano strutture
diverse.
«Consideriamo Keplero: immaginiamo che egli si trovi su una collina e che osservi il z sorgere del
sole in compagnia di Tycho Brahe. Keplero considerava il Sole fisso: era la terra a muoversi. Tycho
seguiva invece Tolomeo e Aristotele, almeno riguardo all’opinione che la Terra fosse fissa al centro
e che tutti gli altri corpi celesti orbitassero attorno ad essa. Keplero e Tycho Brahe vedono la
medesima cosa quando osservano il sorgere del Sole? […] L’osservazione di x è condizionata
dall’anteriore conoscenza di x. Le osservazioni sono influenzate anche dal linguaggio o dalla
notazione usati per esprimere ciò che sappiamo, senza i quali noi potremmo riconoscere ben poco
come conoscenza [...] Vedere un oggetto x equivale a vedere che tale oggetto può comportarsi nei
modi in cui sappiamo che si comportano gli oggetti x: se il comportamento dell’oggetto non si
accorda con ciò che ci attendiamo riguardo agli oggetti x, potrebbe venir meno la nostra capacità di
continuare a guardarlo come x. Ora noi vediamo raramente il delfino come un pesce, la terra come
piatta, il cielo come una scodella rovesciata o il sole come il nostro satellite.» N.R.Hanson Patterns
of scientific discovery. Questa è una visione disposizionale iscritta nella percezione.

Gestalt (siamo alla fine dell’800 ed è un termine usato da Mach con un accezione simile. L’autore a
cui viene riconosciuta la paternità di questa visione è Christian Von Ehrenfels è un discepolo di
Brentano che si occupa molto di psicologia e la sua prospettiva è di quella di individuare i
meccanismi della percezione.
La tesi principale è che nella percezione quelli che potremmo considerare singoli elementi semplici,
parti del complesso percepito, sono fusi in un’organizzazione che li sovrasta, li ordina e in un
qualche senso li fa scomparire. L’idea è che l’insieme percepito non è mai una mera somma delle
parti componenti, bensì frutto di una loro organizzazione, di relazioni tra di essi che è il soggetto ad
istituire. L’origine della sua riflessione è la musica, un brano musicale non è un insieme di note, e la
stessa cosa è qualsiasi dato percettivo.
La nostra percezione non è mai percezione di linee, macchie di colore, singoli suoni ecc. ma è
sempre già una percezione del complesso. La visione dei singoli elementi, ovvero il loro isolamento
richiede invece un lavoro di analisi ed astrazione.
Ora vi faccio vedere esempi di questo principio di organizzazione. Slide di immagini. Sono esempi
di immagini ambigue, che mettono in luce come l’applicazione di principi organizzativi modifichi il
contenuto della nostra percezione. Hanson ci mostra come questa caratteristica gestaltica della
percezione risenta a sua volta delle credenze e delle convinzioni del soggetto, anche, ovviamente,
concernenti teorie scientifiche (es. Se io asserisco che la rete neurale è continua, anche se utilizzo la
tecnica di colorazione adeguata io non vedo una discontinuità, perché gli elementi che indicano la

63
discontinuità vengono interpretati diversamente). Sono esempi di relazioni tra elementi che
generano un’immagine organizzata, un percetto. Nelle immagini ambigue possiamo passare da
vedere una giovane a vedere una vecchia perché interpretiamo diversamente gli elementi. E’ quello
che accade quando si passa da un matrice disciplinare ad un’altra: questa è la tesi di fondo. Ecco
cosa vuol dire è che le teorie hanno i propri fenomeni.

Incommensurabilità semantica
Il cambio di paradigma spesso si accompagna anche ad una modificazione della categorizzazione
degli oggetti (es. Per lungo tempo abbiamo considerato un delfino un pesce non lo consideriamo più
tale perché prima era rilevante l’ambiente e dopo le strategie riproduttive), vengono infatti ridefiniti
i tipi fondamentali, o cambiano di significato i termini impiegati.
In un contesto teorico che risente della tesi dell’olismo del significato, il cambiamento di
significato di un termine porta con sé il cambiamento di significato di tutti i termini ad esso
connesso. Qui la tesi è quella di Quine, secondo cui non posso attribuire significato ai termini
isolatamente presi, nemmeno attraverso la famosa indicazione perché l’ostensione non è affatto una
procedura precisa (se io indico questo potrei indicare cose diverse, se non accompagno questo gesto
a una classificazione di quello che sto indicando il mio gesto è del tutto insignificante). Il significato
di un termine si acquisisce all’interno di una rete di altri termini e perché viene usato in un certo
modo.
Se cambia la categorizzazione degli oggetti, ovvero il mondo viene ritagliato in modi diversi dai
nostri concetti, cambia anche la strutturazione del mondo, dato che non siamo in grado di riferirci
ad un mondo indipendentemente da una qualche teoria o da una qualche formulazione linguistica.
Il passaggio da un paradigma ad un altro è dunque più simile ad una sorta di conversione religiosa,
tutta una serie di convinzioni vengono fatte cadere a vantaggio di altre, ed a partire da queste ci
muoviamo in un mondo diverso. Non ci sono dei motivi ultimi e queste espressioni spingeranno gli
oppositori di K ad accusarlo di irrazionalismo
Lui dirà che anche pur nel passaggio a matrici diverse una qualche forma di comunicazione di
mantiene sempre (Tyco Brare e Keplero lavoravano insieme). Il passaggio da una matrice all’altra
avviene gradualmente, c’è la consapevolezza della transizione nella comunità. Certo se poi andiamo
a misurare il punto di inizio e di fine troviamo due cose incommensurabili.
Slide Bacco e i due amanti
Facciamo fatica a distinguere le due immagini. Il riferimento è ancora alla Gestalt,in questo caso al
salto gestaltico che operiamo quando osservando una figura ambigua passiamo dalla visione di
un’immagine all’altra. Il cambiamento è repentino, non completamente soggetto alla nostra volontà
e non mediato da riflessione. (Hanson dice che la parola interpretazione non è giusta perché sembra
che noi applichiamo dei concetti ma qui non è in gioco la razionalità consapevole).

Razionalità
Kuhn non disconosce che la decisione degli scienziati che si trovano a dover scegliere tra teorie in
competizione sia ancora una decisione razionale, egli contesta che vi siano criteri a storici e sovra-
teorici in grado di guidare questa decisione.
I canoni di razionalità sono relativi al paradigma adottato ed anche se in parte canoni di razionalità
di paradigmi diversi possono coincidere nulla ci garantisce non possa avvenire nel tempo uno
spostamento di tali canoni tanto radicale da segnare una differenza incolmabile con i paradigmi
precedenti.
Domanda; in K non c’è alcuna forma di realismo, non entra in gioco la verità.

Paul Feyerabend
Presta servizio in guerra con l’esercito tedesco, prima i suo interessi sono l’astronomia, la fisica e il
canto. Viene ferito in guerra, passa lungo tempo in sedie a rotelle e camminerà sempre con un

64
bastone. È incapace di avere relazioni emotive forti, a giovane amava l’ordine e la disciplina (non
ebbe nessuna reazione quando gli annunciarono la morte della madre) e poi ha rinnegato tutto
questo.
Finita la guerra torna a Vienna e si appassiona alla filosofia neopositivista (ci sono alcuni
personaggi di quello che era rimasto del circolo di Vienna) e al teatro. La sua tesi riguarda gli
enunciati di base o protocollari. Dedica gli anni 50 allo studio critico di queste tematiche, lui chiede
di lavorare con Wittgstein ma muore e quindi il suo supervisor diventa Popper. Anche se gli viene
offerta una cattedra la rifiuta perché non gli piace questo gruppo attorno a un grande maestro. Nel
1959 arriva negli USA a Berkley, discute con Kuhn e diventa grande amico di Lakatos, anche se si
trovano su due sponde opposte dal punto di vista epistemologico.
Nel 1962 pubblica un articolo Explanation, Reduction, and Empiricism in cui introduce il concetto
di incommensurabilità .
Nel 1970 esce un altro articolo “contro il metodo” e queste tesi sono discussa con Lakatos, nasce il
progetto di fare un libro a due voci in cui Lakatos difendeva il suo metodo e lui controbatteva. Però
nel 1974 Lakatos muore e lui fa uscire questa edizione questa edizione contro il metodo nel 1975.
Negli anni successivi deve rispondere a molte critiche. Nel 1978 pubblica Science in a Free Society
(lui elabora ulteriormente quale deve essere l’interrelazione tra scienza e società) . Nel 1993 la terza
edizione di contro il metodo .

Il linguaggio
Le teorie positiviste del significato implicavano tutte la stability thesis: anche grandi cambiamenti
nella teoria non modificano il significato dei termini nel linguaggio osservativo. Questo gli deriva
dalla sua formazione iniziale.
In contrapposizione Feyerabend propone la seguente tesi Thesis I: «L’interpretazione di un
linguaggio osservativo è determinata dalle teorie che noi usiamo per spiegare ciò che osserviamo, e
cambia quando cambiano le teorie». Questa posizione ricorda quella di Khun ma è fondata su
un’analisi del significato, su questioni linguistiche, perché la sua formazione parte dall’analisi degli
asserti di base protocollari. La sua posizione si collega alle ricerche filosofiche di Wittgstein del
1953, anche se già negli anni 30 aveva incominciato a cambiare idea sul significato. Nel primo
Wittgstein i termini stanno per qualcosa, è una questione di rappresentazione, si riferiscono a
qualcosa di interno o esterno. Nella versione nuova il significato non è dato dal riferimento ma
dall’uso dei termini; per vedere il significato bisogna vedere il contesto in cui sono usati. I termini
come una cassetta degli attrezzi non sono tutti uguali, così come ciascun strumento ha un suo uso.
F adotta questa visione del significato: per i neopositivisti l’interpretazione andava dal linguaggio
empirico a quello teorico per Feyerabend la direzione è inversa e la teoria ha significato in modo
largamente indipendente dall’esperienza sensibile. Il significato è conferito ai termini in virtù del
fatto che essi sono usati e partecipano di un certo contesto teorico.
Teoria pragmatica dell’osservazione L’importanza degli asserti osservativi è data non dal fatto che
essi abbiamo un particolare significato empirico né che costituiscano un base epistemica di certezze
ma dal fatto che ha un ruolo causale nella produzione e confutazione delle teorie .

Incommensurabilità
Una conseguenza di queste tesi è l’incommensurabilità: Se il significato è determinato dalla teoria,
termini che appartengono a diverse teorie non possono avere lo stesso significato. Dunque non ci è
sempre possibile confrontare tra loro teorie diverse per quanto riguarda il loro contenuto.
Negli anni successivi di contro il metodo sviluppa quello che è un esito scontato
dell’incommensurabilità, che però Feyerabend ammetterà lentamente e che diventa il tratto
predominate dell’ultima parte della sua produzione, è il relativismo, che porta alle estreme
conseguenze: non esiste alcun criterio esterno ed oggettivo sulla base del quale valutare le diverse
teorie e tradizioni culturali. Lui non rigetta il falsificazionismo solo che dice che la strategia

65
popperiana di falsificazione non è sufficiente, il dogmatismo non è sconfitto da quel tipo di
falsificazione; possiamo ancora tenerci per buona una teoria che non è una buona teoria. Quindi
bisogna creare nuove teorie, il falsificazionismo di F implica la creazione di alternative teoriche.
Quindi è un’evoluzione del falsificazionismo. Questo vuol dire lasciare spazio a tutte le alternative
es. medicine alternative. Quindi è importante avere tante teorie in contrasto tra di loro.

Anarchismo metodoligico
La successione delle teorie scientifiche è un fatto che segue circostanze storico sociali del momento
e nessun principio guida può essere fornito per descrivere l’evoluzione della scienza (a differenza di
quanto pensava Kuhn o Lakatos). I criteri razionali di valutazione delle teorie non agiscono come
ragioni razionali ed a-storiche che determinano la scelta ma come cause efficaci (non hanno la
status di giustificazione) su piano sociale ed istituzionale.
Non è la cogenza logica di tali principi a renderli efficaci ma il loro peso sociale e culturale. La
figura di riferimento per Feyerabend in Against Method (1975) è Galileo: Le precedenti teorie
scientifiche sul moto, come quella Aristotelica, godevano di un forte supporto empirico ed erano
ben argomentate, mentre Galileo era molto meno scrupoloso. Fa ampio uso di strumenti retorici, di
propaganda e di altri espedienti per sostenere la teoria eliocentrica (questa tesi la prende da Philip
Frank). Solo attraverso un’indagine storica ci è possibile individuare le sollecitazioni e le
componenti teoriche di varia natura che hanno portato Galileo alle sue scoperte. Galileo mostra di
non rispettare alcuna regola di metodo, sulla base dei criteri razionalistici sarebbe stato bocciato!
Per F a differenza di K non c’è la scienza normale ma è sempre rivoluzionaria.

Ricadute sociali
C’è un aspetto importante del suo anarchismo metodologico che è l’aspetto umanitario e sociale. Il
suo non è un anarchismo politico. Il pluralismo delle teorie come garanzia della possibilità di
falsificare si traduce a livello politico e sociale nel dare spazio a tutte le diverse possibilità e modi di
ragionare (quindi anche la medicina alternativa, il pensiero religioso, ecc.). lui critica fortemente il
dominio della scienza a livello culturale che non deve avere un ruolo privilegiato all’interno della
cultura.
L’anarchismo metodologico vuol dire che non c’è un metodo? Che tutto va bene? È un impressione
che si può avere. Leggiamo quindi due citazioni :
“L’anarchismo metodologico differisce sia dallo scetticismo sia dall’anarchismo politico (religioso).
Mentre lo scettico considera ogni opinione ugualmente buona, o ugualmente cattiva, o desiste
completamente dal dare tali giudizi, l’anarchico epistemologico non ha alcuno scrupolo a difendere
anche l’asserzione più trita o più mostruosa. Mentre l’anarchico politico o religioso vuole abolire
una certa forma di vita, l’anarchico epistemologico può desiderare di difenderla, poiché egli non ha
alcun sentimento eterno di fedeltà, o di avversione, nei confronti di alcuna istituzione o ideologia.
Come il dadaista, al quale assomiglia assai più che non somigli all’anarchico politico, egli ‘non
soltanto non ha un programma, ma è contro tutti i programmi’, anche se in qualche occasione sarà il
più rumoroso dei difensori dello status quo o fra i suoi oppositori: ‘per essere veri dadaisti si deve
essere antidadaisti’. I suoi obbiettivi rimangono stabili o mutano solo in conseguenza del
ragionamento, o della noia, o di un’esperienza di conversione, o del desiderio di far impressione a
un’amante e così via. Una volta che si sia proposto un qualche obiettivo, può cercare di accostarsi
ad esso con l’aiuto di gruppi organizzati o da solo; può usare la ragione, l’emozione, il ridicolo, un
atteggiamento di seria preoccupazione e qualsiasi altro mezzo sia stato inventato dall’uomo per
ottenere il meglio dei suoi simili.»
C’è questo aspetto i comprensione reciproca umanitaria di fondo.
Ma la domanda è assenza di metodo o metodo del pluralismo? La risposta non è chiara ma vi offro
questo piccolo brano:

66
«L’istruzione generale dovrebbe preparare un cittadino a scegliere fra gli standard o a trovare la sua
strada in una società contenente gruppi impegnati in vari standard, ma in nessuna condizione deve
piegarne la mente indicendolo a conformarsi agli standard di un gruppo particolare. Gli standard
saranno considerati, saranno discussi, i bambini saranno incoraggiati a conseguire profitto dalle
discipline più importanti, ma solo come si acquista abilità in un gioco, ossia senza un serio impegno
e senza privare la mente della libertà di giocare altri giochi. Dopo essere stato preparato in questo
modo, un giovane può decidere di dedicare il resto della sua vita a una particolare professione e può
cominciare a praticarla seriamente. Questo ‘impegno’ dovrebbe essere il risultato di una decisione
cosciente, sulla base di una conoscenza abbastanza completa delle alternative, e non una
conclusione scontata» .
Quindi il pluralismo appare come il metodo anche se come dicevo la risposta a questa domanda non
è conclusiva.

67

Potrebbero piacerti anche