Sei sulla pagina 1di 142

Isonomia Epistemologica

Volume 2
COMPLESSIT E RIDUZIONISMO

































































Volume 1
Il Realismo Scientifico di Evandro Agazzi
Mario Alai, ed.

Volume 2
Complessit e Riduzionismo
Vincenzo Fano, Enrico Giannetto, Giulia Giannini, Pierluigi Graziani, eds.

ISONOMIA - Epistemologica Series Editor
Gino Tarozzi gino.tarozzi@uniurb.it







COMPLESSIT E RIDUZIONISMO


a cura di

Vincenzo Fano
Enrico Giannetto
Giulia Giannini
Pierluigi Graziani
































ISONOMIA Epistemologica
All rights reserved.

ISSN 2037-4348


Scientific Director: Gino Tarozzi
Managing Director: Pierluigi Graziani
Department of Foundation of Sciences
P.za della Repubblica, 13 61029 Urbino (PU)

http://isonomia.uniurb.it/

Design by massimosangoi@gmail.com


All rights reserved. No part of this publication may be reproduced, stored in
a retrieval system or transmitted in any form, or by any means, electronic,
mechanical, photocopying, recording or otherwise without prior permission,
in writing, from the publisher.






Sommario

VINCENZO FANO, ENRICO GIANNETTO, GIULIA GIANNINI, PIERLUIGI GRAZIANI
Riflettendo su complessit e riduzionismo ................................................................ 1
GIAN-ITALO BISCHI
Modelli dinamici per le scienze sociali ..................................................................... 7
LUCIANO BOI
Remarks on the geometry of complex systems and self-organization ..................... 21
CLAUDIO CALOSI, VINCENZO FANO
Coscienza e fisicalismo minimale ........................................................................... 37
SALVO D'AGOSTINO
Newton, Ampre, Maxwell, Einstein: sulla deduzione dei fenomeni ...................... 47
PIERLUIGI GRAZIANI
Elementare ma complessa: la prospettiva della complessit computazionale
attraverso il caso studio della geometria di Tarski ................................................ 59
ARCANGELO ROSSI
Dai modelli riduzionistici della realt fisica nella scienza classica alla
complessit nella scienza contemporanea .............................................................. 75
ROBERTO SERRA
Complex Systems Biology ....................................................................................... 93
GIORGIO TURCHETTI
Dai modelli fisici ai sistemi complessi .................................................................. 101
SERGIO CHIBBARO, LAMBERTO RONDONI, ANGELO VULPIANI
Considerazioni sui fondamenti della meccanica statistica ............................... 123



2012Vincenzo Fano, Enrico Giannetto, Giulia Giannini, Pierluigi Graziani
Riflettendo su complessit e riduzionismo, in Complessit e riduzionismo, pp. 1-5
Published by Isonomia, Rivista online di Filosofia Epistemologica ISSN 2037-4348
Universit degli Studi di Urbino Carlo Bo
http://isonomia.uniurb.it/epistemologica
1




Riflettendo su complessit e riduzionismo
Vincenzo Fano
Universit degli Studi di Urbino Carlo Bo
vincenzo.fano@uniurb.it
Enrico Giannetto
Universit degli Studi di Bergamo
egiannet@unibg.it
Giulia Giannini
Centre Alexandre Koyr, Paris
giulia.giannini@gmail.com
Pierluigi Graziani
Universit degli Studi di Urbino Carlo Bo
pierluigi.graziani@uniurb.it
Il volume raccoglie gli atti della XIII Scuola Estiva di Filosofia della Fisica,
tenutasi a Cesena dal 13 al 18 settembre 2010. A partire dal 1998, il Centro
Interuniversitario di ricerca in Filosofia e Fondamenti della Fisica (Urbino,
Bologna, Salento e Insubria) organizza annualmente una scuola estiva in
collaborazione con la Societ Italiana di Logica e Filosofia delle Scienze
(SILFS) e il Comune di Cesena. La scuola, diventata ormai punto di
riferimento annuale per studenti, insegnanti e studiosi di varie discipline,
affronta ogni anno un tema differente invitando i maggiori esperti italiani
sullargomento. Dedicata a Complessit e Riduzionismo, ledizione del
2010 si avvalsa anche della collaborazione della Scuola di Dottorato in
Antropologia ed Epistemologia della Complessit dellUniversit degli




Complessit e riduzionismo
2




Studi di Bergamo che, dal 2002, promuove in Italia e nel mondo la
formazione e il perfezionamento di ricercatori esperti nella complessit
storica, filosofica e antropologica delle scienze naturali e umane.
Come mostrano i contributi qui raccolti, durante i lavori della scuola,
complessit e riduzionismo sono stati affrontati dai relatori a partire da
prospettive diverse e sotto differenti punti di vista.
Gian-Italo Bischi, dopo aver brevemente delineato la storia della
progressiva matematizzazione delleconomia, si concentrato soprattutto
sullutilizzo di modelli dinamici non lineari. Sviluppati inizialmente in
ambito fisico e basati su equazioni di evoluzione, tali modelli deterministici
vengono utilizzati per prevedere ed eventualmente controllare
levoluzione temporale di sistemi reali. Secondo Bischi, la scoperta che
modelli dinamici non lineari (tipici dei sistemi sociali che presentano
continue interazioni e meccanismi di feed-back) possono esibire
comportamenti di caos deterministico, caratterizzato dalla propriet di
amplificare in modo difficilmente prevedibile perturbazioni arbitrariamente
piccole, ha suscitato un certo imbarazzo e nel contempo creato nuove
possibilit. Imbarazzo perch la presenza di caos deterministico rende
insostenibile lipotesi dellagente economico razionale, ovvero capace di
prevedere correttamente; ma apre anche nuove possibilit, poich tale
scoperta mostra che quei sistemi economici e sociali caratterizzati da
fluttuazioni in apparenza casuali potrebbero in realt essere governati da
leggi del moto deterministiche (anche se non lineari).
Se Bischi ha affrontato il tema della complessit in ambito economico,
Salvo DAgostino ha invece introdotto e approfondito il problema dei
successi e dei fallimenti dellassiomatizzazione in campo fisico. Uno degli
aspetti pi dibattuti della complessit sul versante scientifico e filosofico
infatti quello della supposta rinuncia a una generalizzazione dei
procedimenti assiomatico-deduttivi come metodo generale della ricerca
scientifica. A partire dalla considerazione che la fisica pre-relativistica
spesso stata considerata fondata prevalentemente sul trionfo di tale metodo,
DAgostino ha evidenziato la presenza di una posizione antagonista presente
gi in Newton e ripresa successivamente da Ampre e Maxwell. Alternativa
al metodo assiomatico-deduttivo, tale prospettiva si fonda sul ricorso alla
cosiddetta deduzione dai fenomeni. Una variazione sul tema, stata
individuata da DAgostino anche nel contributo di Einstein in cui alla
celebrazione del metodo assiomatico-deduttivo si contrappone una lode
dellosservazione dei fenomeni e della riflessione sugli esperimenti:
proprio ponendo il problema di una scelta o conciliazione fra le due che





Fano, Giannetto, Giannini, Graziani: Riflettendo su complessit e riduzionismo
3




Einstein avrebbe, secondo DAgostino, il merito di aver aperto la via al
pensiero scientifico moderno.
Sempre in ambito fisico, Arcangelo Rossi ha tracciato, da un punto di
vista storico, il passaggio dai modelli riduzionistici che hanno caratterizzato
lo studio delle realt fisica nella scienza classica allemergere della
questione della complessit nella scienza contemporanea. In particolare, a
partire dallaffermazione di Ernst Cassirer secondo cui la piena transizione
da unaccezione sostantiva ed esplicativa dei modelli a una formale e
funzionale sarebbe rintracciabile gi alle origini della scienza moderna,
Rossi ha mostrato come la visione della natura che emerge dalla scienza
classica illuminista fosse comunque realista e riduzionista. Bench alcuni
aspetti e alcune visioni non propriamente qualificabili come riduzioniste e
meccaniciste siano gi presenti allinterno della scienza classica, la tematica
della complessit comincia a svilupparsi in fisica solo alla fine
dellOttocento.
Sergio Chibarro, Lamberto Rondoni e Angelo Vulpiani hanno affrontato
il ruolo del caos e lemergenza di propriet collettive allinterno della
meccanica statistica. In particolare, hanno mostrato lesistenza di due
posizioni nettamente diverse: da una parte il punto di vista tradizionale,
risalente a Boltzmann e parzialmente formalizzato da Khinchin, secondo cui
la meccanica statistica sarebbe caratterizzata in primo luogo dallenorme
numero di gradi di libert; dallaltro la scuola moderna cresciuta intorno a
Prigogine e ai suoi collaboratori, che considera il caos come lingrediente
fondamentale. Anche attraverso alcune simulazioni numeriche, gli autori
hanno mostrato come anche allinterno della meccanica statistica si faccia
avanti il problema della complessit e del riduzionismo. Sebbene i risultati
di Khinchin non siano in grado di rispondere in modo definitivo a tutti i
problemi sollevati dalla relazione fra termodinamica e meccanica statistica,
il numero estremamente grande di gradi di libert che tale approccio prende
in considerazione permette lemergere, nei sistemi macroscopici, di
propriet del tutto assenti in sistemi piccoli.
Giorgio Turchetti ha introdotto il problema del passaggio dai modelli
fisici ai sistemi complessi mostrando come i limiti che il disegno
riduzionista incontra gi per i sistemi fisici diventino decisamente pi forti
nel caso dei sistemi complessi. La grande differenza tra un sistema fisico e
un sistema complesso risiederebbe infatti, secondo Turchetti, nel fatto che il
primo, fissate le condizioni esterne, ha sempre le medesime propriet,
mentre il secondo cambia con il fluire del tempo, perch la sua
organizzazione interna muta non solo al cambiare di fattori ambientali ma
anche con il succedersi delle generazioni. in tale prospettiva che egli




Complessit e riduzionismo
4




giunge a definire complessi non tanto i sistemi caratterizzati da propriet
emergenti e da interazioni non lineari tra i loro componenti (definibili come
sistemi dinamici), ma piuttosto i sistemi viventi o quelli di vita artificiale
che ne condividono le propriet essenziali.
Il problema di complessit e riduzionismo in campo biologico stato
poi affrontato in maniera diretta da Luciano Boi e da Roberto Serra. Il primo
ha mostrato come lo studio del comportamento dinamico delle strutture
cellulari non possa essere descritto con sufficiente accuratezza n dalla
convenzionale dinamica dellequilibrio n da modelli statici e richieda
quindi nuovi strumenti. In particolare, egli ha affrontato la necessit per
una comprensione del comportamento dei sistemi (dinamici) complessi di
unadeguata conoscenza delle caratteristiche cinetiche e topologiche delle
loro componenti. A differenza dello studio dei meccanismi molecolari,
lanalisi del comportamento dinamico delle strutture cellulari non necessita
tanto di una profonda e dettagliata conoscenza del comportamento di ogni
singola molecola, ma piuttosto delle regole che governano il comportamento
globale e collettivo dei sistemi.
In consonanza con il contributo di Boi, Serra ha spiegato come la
scienza dei sistemi complessi abbia mostrato lesistenza di leggi in gran
parte indipendenti dalle specifiche caratteristiche delle entit microscopiche
che tuttavia ne descrivono il comportamento e linterazione. Se la ricerca di
propriet generali ha ormai assunto una grande rilevanza in ambito fisico,
nelle scienze biologiche si trova ancora nei suoi primi stadi di vita.
Attraverso una serie di esempi, Serra ha mostrato come tale approccio, da
considerarsi non in opposizione alla biologia molecolare classica ma a essa
complementare, sembra per portare anche in ambito biologico a importanti
e promettenti risultati. Emblematico in questo senso per Serra il lavoro di
Kauffman che rivela come un sistema dinamico di geni che interagiscono
fra loro mostri delle propriet di auto-organizzazione che spiegano alcuni
aspetti della vita, fra cui lesistenza di un numero limitato di tipi cellulari in
ogni organismo multicellulare.
Pierluigi Graziani ha affrontato invece il problema della complessit
computazionale in riferimento alla decidibilit della geometria elementare di
Tarski. A partire soprattutto dai lavori di Fisher, Rabin e Meyers e in
confronto con il lavoro di Tarski, Graziani ha analizzato come il problema
della decisione si trasformi nella determinazione di quanto tempo e spazio di
memoria impieghi un algoritmo di decisione per una teoria a determinare se
un enunciato della teoria ne sia o meno un teorema. In teoria della
complessit computazionale, infatti, si assume che siano
computazionalmente intrattabili quei compiti che richiedono risorse di





Fano, Giannetto, Giannini, Graziani: Riflettendo su complessit e riduzionismo
5




tempo e spazio di memoria (le cosiddette risorse computazionali) che
crescono esponenzialmente con la lunghezza dellinput; e che siano
computazionalmente trattabili quelli che richiedono risorse che crescono al
pi in modo polinomiale con la lunghezza dellinput. In tale prospettiva, la
complessit computazionale non concerne dunque quante risorse richiede lo
svolgere un determinato compito, bens quanto aumentano le risorse
richieste al crescere delle dimensioni dei dati.
Claudio Calosi e Vincenzo Fano hanno mostrato come il problema della
complessit e del riduzionismo riguardi anche il rapporto fra psicologia e
fisica. In particolare, hanno proposto qui un nuovo esperimento mentale che
hanno chiamato Shem-Shaun dal nome dei due gemelli protagonisti del
Finnegans Wake di Joyce e che solleva un problema per il Fisicalismo
minimale in filosofia della mente. Il fisicalismo minimale viene infatti
caratterizzato come quella tesi secondo cui le propriet mentali
sopravvengono nomologicamente sulla propriet fisiche, una forma di
riduzionismo per cui, stabilite le propriet fisiche del mondo, quelle mentali
sarebbero necessariamente determinate. Gli autori sostengono che, o il
Fisicalismo minimale incapace di dare un resoconto adeguato
dellesperimento Shem-Shaun o ne deve dare un resoconto che in forte
tensione con la nostra attuale immagine scientifica del mondo.
Nel loro insieme, i lavori presentati testimoniano da un lato la vivacit
degli studi epistemologici sulla complessit e dallaltro limportanza del
concetto di complessit per la filosofia della scienza e, in particolare, della
fisica.





2012 Gian-Italo Bischi
Modelli dinamici per le scienze sociali, in Complessit e riduzionismo, pp. 7-19
Published by Isonomia, Rivista online di Filosofia Epistemologica ISSN 2037-4348
Universit degli Studi di Urbino Carlo Bo
http://isonomia.uniurb.it/epistemologica

7




Modelli dinamici per le scienze sociali
Razionalit (limitata), interazione, aspettative
Gian-Italo Bischi
Universit degli Studi di Urbino Carlo Bo
gian.bischi@uniurb.it
1. Introduzione
Nel corso del Novecento luso dei modelli matematici, che si era gi rivelato
cos utile in fisica e ingegneria, stato introdotto, talvolta con difficolt non
trascurabili, anche in discipline tradizionalmente considerate poco adatte ad
un simile approccio, quali leconomia, la sociologia, la biologia. Un
percorso che inizia prendendo a prestito molte delle idee e dei modelli della
fisica, tanto che nel discorso inaugurale dellanno accademico 1901-1902
allUniversit di Roma il grande fisico matematico Vito Volterra (1860-
1940) pronunciava le seguenti parole: intorno a quelle scienze nelle quali
le matematiche solo da poco tempo hanno tentato dintrodursi, le scienze
biologiche e sociali, che pi intensa la curiosit, giacch forte il
desiderio di assicurarsi se i metodi classici, i quali hanno dato cos grandi
risultati nelle scienze meccanico-fisiche, sono suscettibili di essere
trasportati con pari successo nei nuovi ed inesplorati campi che si
dischiudono loro dinanzi.
In effetti leconomia arriver, nel corso della prima met del secolo, a
unelegante formulazione assiomatico-deduttiva della teoria dellequilibrio
economico, con lutilizzo di metodi matematici eleganti e sofisticati. Ma le
ipotesi di base, che coinvolgono concetti legati alle scelte degli individui
influenzate dal loro livello di razionalit, influenzate da componenti
psicologiche e interazioni sociali, condizionano fortemente i risultati
ottenuti, e tuttora molti ritengono che il fatto che i metodi matematici si





Complessit e riduzionismo
8




siano rivelati cos utili in fisica non implica che lo siano anche per
leconomia e le scienze sociali. La formalizzazione sempre pi astratta di
tali modelli, insieme alla loro difficolt a spiegare e prevedere alcuni
fenomeni economici e sociali osservati, ha portato a frequenti polemiche
sulla reale opportunit di trasformare le discipline sociali in teorie
matematiche, con strumenti che talvolta sembrano impiegati come fine a se
stessi.
In questo articolo, dopo aver brevemente delineato la storia della
progressiva matematizzazione delleconomia, ci si concentrer soprattutto
sullutilizzo in economia dei modelli dinamici non lineari, anche questi
sviluppati inizialmente in fisica. Si tratta di modelli deterministici utilizzati
per prevedere, ed eventualmente controllare, levoluzione temporale di
sistemi reali. Basati su equazioni di evoluzione, espresse mediante equazioni
differenziali o alle differenze a seconda che si consideri il tempo continuo o
discreto, il loro studio qualitativo permette di ottenere informazioni sul tipo
di comportamento che emerger nel lungo periodo, e di come questo
influenzato dai principali parametri. La scoperta che modelli dinamici non
lineari (che sono la regola nei sistemi sociali, caratterizzati da interazioni e
meccanismi di feed-back) possono esibire comportamenti denotati col
termine di caos deterministico per la propriet di amplificare in modo
difficilmente prevedibile perturbazioni arbitrariamente piccole (la cosiddetta
sensitivit rispetto alle condizioni iniziali, o effetto farfalla) ha suscitato
un certo imbarazzo e nel contempo creato nuove possibilit.
Limbarazzo dovuto al fatto che, come descriveremo meglio in
seguito, la presenza di caos deterministico rende insostenibile lipotesi di
agente economico razionale, ovvero capace di prevedere correttamente. Le
nuove possibilit sono legate al fatto che quei sistemi economici e sociali
caratterizzati da fluttuazioni in apparenza casuali potrebbero essere
governati da leggi del moto deterministiche (anche se non lineari). In ogni
caso, gli studi sui sistemi dinamici non lineari hanno portato a distinguere
fra la rappresentazione matematica deterministica e la prevedibilit.
Lattuale crisi economica ha senzaltro contribuito a riaccendere il
dibattito sul modo di studiare i sistemi economici e sociali e la capacit di
spiegare e prevedere. Le scienze sociali, e in particolare leconomia, sono
davvero una scienza? Come pu una scienza non prevedere e non accorgersi
di quello che sta succedendo? Si tratta, come vedremo nel seguito, di
domande ricorrenti, e anche in questa occasione qualcuno ha detto che,
inseguendo i formalismi matematici, si sta perdendo di vista la realt,
mentre altri sostengono che il problema sta negli specifici formalismi
adottati, che quelli usati sono superati, legati ad una matematica vecchia,





Bischi: Modelli dinamici per le scienze sociali


9




magari mutuata in modo acritico da altre discipline. La speranza allora che
la crisi economica comporti un cambio di paradigma anche nella
modellizzazione matematica.
2. La matematizzazione delleconomia
Nonostante ci sia un importante precursore, costituito dal testo Rcherches
sur les principes matmatiques de la thorie de la richesse pubblicato a
Parigi da A.A. Cournot nel 1838, la nascita delleconomia matematica viene
fatta risalire a tre opere che escono, quasi contemporaneamente, trentanni
dopo: si tratta di The Theory of Political Economy, pubblicata da W.S.
Jevons nel 1871 a Londra; Grundstze der Volkswirtschaftslehre (Principi
di Economia) pubblicata da C. Menger a Vienna anchessa nel 1871 e
Elments dconomie politique pure di L.Walras, Losanna 1877.
In queste opere c un nuovo ruolo svolto dalla Matematica, non pi
semplice strumento per il calcolo algebrico ma elemento costitutivo e parte
integrante dellanalisi economica, che segna la trasmigrazione
delleconomia dal novero delle scienze morali a quello delle discipline
scientifiche.
Queste opere segnano linizio della cosiddetta rivoluzione
marginalista, ovvero la formulazione delle leggi delleconomia attraverso
problemi di massimo e di minimo. In particolare, il principio che si assume
come forza motrice quello della massimizzazione dellutilit attesa dagli
individui, con funzioni di utilit di tipo ordinale definite sulla base di certi
assiomi di scelta. Principi di minimizzazione o massimizzazione gi
permeavano tutta la fisica dellepoca, e Walras, probabilmente il pi
rappresentativo dei tre autori, sostenne sempre lesistenza di una stretta
analogia tra leconomia e le scienze fisico-matematiche.
Una spinta ancor pi decisiva in tale direzione sar poi data da Vilfredo
Pareto, che dopo aver studiato Matematica a Torino nel 1892 succede a
Walras sulla cattedra di Losanna. Il modello seguito rimane comunque la
fisica, in particolare la meccanica, con i principi di massimo e di minimo
che determinano i movimenti e gli equilibri. Pareto procede a partire da
pochi assiomi iniziali, considerati incontrovertibili nella loro evidenza, che
sviluppa poi con un rigoroso ragionamento deduttivo, per arrivare a concetti
quali lequilibrio economico generale. Pareto intende disinquinare la
scienza economica da politica e filosofia prendendo come modello la
meccanica razionale. Ovviamente questo suscit non poche polemiche fra
gli studiosi di discipline sociali, i quali si chiedevano se fosse possibile





Complessit e riduzionismo
10




trasformare in quantitativa una scienza umana come leconomia, i cui
procedimenti e le cui conclusioni coinvolgono pesantemente pregiudizi
storici, culturali e politici. Cera inoltre il timore che limpiego della
matematica fornisse alleconomia una particolare autorevolezza, che rischia
di trasformarsi in presunta oggettivit e che comunque rende difficile
lindividuazione dei suoi condizionamenti ideologici
Queste polemiche non scoraggiarono Pareto, che affermava:
Leconomia non abbia timore di diventare un sistema assiomatico-
deduttivo, ipotizzando agenti e processi economici idealizzati, cos come la
fisica utilizza con grande profitto entit come i corpi rigidi, i fili inestensibili
e privi di massa, i gas perfetti, le superfici prive di attrito. Famosi i suoi
specchietti (in doppia colonna) che presentano gli elementi alla base dello
studio dei fenomeni meccanici e i loro corrispondenti per quelli economici.
C da notare che questa impostazione delleconomia ha costituito a sua
volta un fattore decisivo per la definitiva affermazione in matematica dei
sistemi formali, in quanto per la prima volta il metodo assiomatico-
deduttivo veniva applicato al di fuori dei tradizionali contesti della
geometria o della fisica. Questa affermazione diventa ancor pi vera con le
opere di Gerard Debreu (19212004), premio Nobel per leconomia nel
1983, che nella prefazione della sua opera The Theory of Value (1959)
scrive: la teoria del valore trattata qui secondo gli standard di rigore
dellattuale scuola formalista di Matematica. La fedelt allesigenza del
rigore impone allanalisi una forma assiomatica in cui la vera e propria
teoria rimane completamente separata dalle sue interpretazioni. In questo
volume, che ha fatto parlare di bourbakismo in economia, allutilizzo del
calcolo differenziale e dellalgebra delle matrici si aggiungono quelli
dellanalisi convessa, la teoria degli insiemi, la topologia, la teoria della
misura, gli spazi vettoriali, lanalisi globale. Lo standard di rigore logico
della matematica ormai la regola, non pi leccezione.
Ma lo stesso Debreu scriveva anche che la seduzione della forma
matematica pu diventare quasi irresistibile. Nel perseguimento di tale
forma, pu darsi che il ricercatore sia tentato di dimenticare il contenuto
economico e di evitare quei problemi economici che non siano direttamente
assoggettabili a matematizzazione
1
.
C poi il solito problema che, a differenza degli oggetti della fisica, il
comportamento di esseri umani pi difficile da descrivere mediante
modelli matematici. Come amava stigmatizzare il grande economista John
Maynard Keynes (18831946) non basta semplicemente adattare i metodi e

1
Citazione tratta da Gandolfo (1989).





Bischi: Modelli dinamici per le scienze sociali


11




i ragionamenti della fisica alla modellizzazione delleconomia perch
Leconomia una scienza morale [] essa ha a che vedere con
motivazioni, aspettative, incertezze psicologiche. Si deve essere
costantemente attenti a non trattare questo materiale come se fosse costante
ed omogeneo. come se la caduta della mela al suolo dipendesse dalle
aspirazioni della mela, se per lei sia conveniente o meno cadere a terra, se il
suolo vuole che essa cada, e se vi sono stati errori di calcolo da parte della
mela sulla sua reale distanza dal centro del pianeta
2
.
E si potrebbe anche aggiungere: come e quanto la mela si fa
condizionare dal comportamento delle altre mele, le aspettative che la mela
ha sugli esiti della sua caduta, le informazioni che la mela ha sulle decisioni
delle altre mele e sulle condizioni del suolo su cui andr a cadere, ecc.
Questi problemi erano stati chiaramente delineati gi agli albori
delleconomia matematica, in una famosa lettera di Jules Henri Poincar
(18541912) a Lon Walras, in cui si trova il seguente passo: Ho pensato
che allinizio di ogni speculazione matematica ci sono delle ipotesi e che,
perch questa speculazione sia fruttuosa occorre, come del resto nelle
applicazioni della Fisica, che ci si renda conto di queste ipotesi. Per
esempio, in Meccanica si trascura spesso lattrito e si guarda ai corpi come
infinitamente lisci. Lei guarda agli uomini come infinitamente egoisti ed
infinitamente perspicaci. La prima ipotesi pu essere accettata come prima
approssimazione, ma la seconda necessiterebbe forse di qualche cautela
3
.
Il problema evidenziato da Poincar nasce dal tentativo di Walras (e del
marginalismo in generale) di introdurre lipotesi della perfetta razionalit,
col solo fine di ottenere risultati formali. In effetti nei modelli dei
marginalisti, in cui si assume che gli agenti prendano decisioni in modo da
massimizzare lutilit attesa, occorre qualche ipotesi sulla distribuzione di
probabilit dei possibili stati futuri delleconomia. Lipotesi di homo
oeconomicus, lagente idealizzato perfettamente razionale e informato, in
grado di risolvere problemi di ottimizzazione e capace di prevedere gli
sviluppi futuri delleconomia in quanto ne conosce le leggi cos come un
fisico conosce le leggi della natura, in contrasto con gli studi in cui si
evidenzia che la componente psicologica e le limitate capacit e
informazioni hanno un ruolo fondamentale nel comportamento degli agenti
economici.

2
Questi passaggi sono riportati nel vol. XIV dei Collected Writings of John Maynard
Keynes, Keynes (1973, 296-300).
3
Lettera ricevuta da Walras il 1 ottobre 1901, riportata in Elments dconomie politique
pure, 4 ed..





Complessit e riduzionismo
12




Anche Herbert Simon (19162001), Nobel per lEconomia nel 1978,
aveva parlato, negli anni 50, di agenti economici limitatamente razionali
affermando che Non empiricamente evidente che gli imprenditori e i
consumatori nel prendere decisioni seguano i principi di massimizzazione
dellutilit richiesti dai modelli dei marginalisti, in parte perch non hanno
informazioni sufficienti, o le necessarie capacit di calcolo. Quindi nei
modelli occorre prevedere che gli agenti siano incerti sul futuro e occorre
includere i costi per reperire informazioni. Questi fattori limitano le capacit
degli agenti nel fare previsioni.
Inoltre lipotesi che tutti gli agenti siano razionali comporta anche che
possono essere rappresentati da un unico prototipo, chiamato agente
razionale rappresentativo, mentre nella realt ogni comunit di operatori
economici si presenta estremamente variegata, e in modelli non lineari
lazione congiunta di agenti eterogenei non pu essere sostituita con il
comportamento medio di un ipotetico agente rappresentativo.
Nonostante queste obiezioni, lipotesi dellagente rappresentativo
razionale diventata dominante dagli anni 60 in poi, e questo solleva molti
dubbi, anche logici, dato che lagente economico parte del sistema che
studia, un problema che i fisici hanno per la prima incontrato nello studio
della meccanica quantistica e che si portato dietro molte conseguenze,
paradossi e interpretazioni che fanno tuttora discutere.
Il principale motivo per cui il paradigma dellagente razionale
rappresentativo, associato a quello dei mercati efficienti, diventato il
modello teorico dominante (modello neoclassico) che esso prevede che
leconomia raggiunger un equilibrio in cui tutte le relazioni economiche
necessarie (come ad esempio i vincoli di bilancio) saranno rispettate. Questo
approccio, fortemente radicato nei metodi di ottimizzazione che portano alla
teoria dellequilibrio generale, porta alla convinzione che i mercati sono in
grado di auto-correggersi e che il ruolo dei governi tuttal pi quello di
regolatori dalla mano leggera.
Questo punto di vista diventato via via pi articolato, e hanno
cominciato a farsi strada modelli intrinsecamente dinamici, con agenti
limitatamente razionali, eterogenei, che prendono decisioni sulla base di un
set informativo limitato, talvolta asimmetrico, attraverso procedimenti
adattivi basati su meccanismi di trial and error. Simili modelli, come
vedremo nel prossimo paragrafo, possono condurre ad evoluzioni temporali
che non si assestano mai su un equilibrio stazionario, e possono facilmente
condurre a oscillazioni del sistema economico, con alti e bassi che si
generano endogenamente, ovvero senza shock esterni, attraverso





Bischi: Modelli dinamici per le scienze sociali


13




procedimenti non lineari tipici dei sistemi dissipativi che operano in
condizioni di disequilibrio.


3. Modelli dinamici in economia e scienze sociali
Un sistema dinamico viene identificato mediante un certo numero di
grandezze misurabili, dette variabili di stato, ciascuna delle quali una
funzione della variabile t, che rappresenta il tempo. Esse possono essere
raccolte in un vettore a n componenti x(t)=[(x
1
(t), x
2
(t), , x
n
(t)], punto
geometrico in uno spazio a n dimensioni, detto spazio degli stati, che in ogni
istante t si assume rappresenti il sistema. Assegnato il vettore di stato x
0
ad
un istante iniziale t
0
, levoluzione del sistema dinamico idealmente
rappresentata da un operatore x(t)= (t
0
, x
0
; t) che permette di determinare
lo stato del sistema ad ogni istante di tempo successivo, ovvero la traiettoria
del sistema. La variabile tempo pu essere pensata come un numero reale, e
allora diremo che il tempo varia in modo continuo, oppure come un numero
naturale, e allora diremo che il tempo varia in modo discreto, cio
assumendo valori multipli di una data unit di misura. Nel caso di tempo
continuo vengono definite delle equazioni locali di evoluzione, o equazioni
del moto, mediante equazioni differenziali che descrivono come la rapidit
di variazione di ciascuna variabile di stato (espressa dalla derivata prima
rispetto al tempo) dipende da se stessa e dalle altre variabili:
( )
1 2
, ,..., ; 1,...,
i
i n
dx
f x x x i n
dt
= = ; x
i
(0) assegnati,
dove f
i
la funzione che determina levoluzione della i
ma
variabile di stato,
rappresenta linsieme dei parametri da cui dipende la legge del moto. In
pratica, dalla conoscenza delle variabili di stato e dei loro tassi di variazione
(o velocit) in un istante di tempo, si pu calcolare lo stato a un istante
successivo e cos via.
Invece nel caso di tempo discreto la legge del moto, che trasforma lo
stato del sistema al tempo t nello stato al tempo successivo t+1, viene
rappresentata sotto forma di equazioni alle differenze:
x
i
(t+1) = f
i
( x(t), ), i=1,...,n; x
i
(0) assegnati.
Il fatto che il tempo possa essere considerato una variabile discreta pu
sembrare strano, eppure costituisce una buona rappresentazione del fatto che





Complessit e riduzionismo
14




in certi contesti il tempo viene scandito da eventi, in genere decisioni che
non possono essere rivedute in ogni istante: limpresa che assume operai o
lagricoltore che semina una determinata quantit di grano non possono
modificare la propria decisione in ogni momento, in quanto lazienda dovr
attendere il successivo consiglio damministrazione e lagricoltore la
successiva stagione di semina.
Le equazioni del moto di un sistema dinamico sono quindi
perfettamente deterministiche, simili a quelle usate in meccanica celeste per
descrivere e prevedere il moto di pianeti e comete. Questi modelli avevano
portato Laplace a enunciare, nel 1776, quello che sarebbe poi diventato il
manifesto del determinismo
4
: Lo stato attuale del sistema della natura
consegue evidentemente da quello che era allistante precedente e se noi
immaginassimo unintelligenza che a un istante dato comprendesse tutte le
relazioni fra le entit di questo universo, essa potrebbe conoscere le
rispettive posizioni, i moti e le disposizioni generali di tutte quelle entit in
qualunque istante del futuro.
Parole quasi identiche erano state usate circa un secolo prima da
Leibniz, che scriveva Vediamo allora che ogni cosa procede in modo
matematico cio infallibilmente nel mondo intero, in modo che se
qualcuno avesse una sufficiente capacit di conoscere a fondo le cose, e
avesse abbastanza intelligenza e memoria per considerare tutte le
circostanze e tenerne conto, questi potrebbe essere un profeta e potrebbe
vedere il futuro nel presente come in uno specchio.
5

Queste affermazioni cos evidenti nel mondo della fisica, non lo sono in
economia e nelle scienze sociali, in quanto in questi contesti lo stato attuale
consegue s da quelli del passato, ma dipende anche dalle decisioni degli
individui che lo compongono, decisioni che sono influenzate dalle
aspettative che essi hanno sul futuro. Si rende quindi necessario formulare
dei modelli in cui le aspettative degli agenti sul futuro si riflettono sul modo
in cui i sistemi evolvono. Si ottengono quindi modelli con aspettative, che
possiamo immaginare formulati in uno dei modi seguenti:
x
t+1
=f(
) (
1
e
t
x
+
)
oppure
x
t
=f(
) (
1
e
t
x
+
),

4
Laplace (1776).
5
Cassirer (1956), traduzione mia.





Bischi: Modelli dinamici per le scienze sociali


15




dove lapice (e) significa expected. In altre parole, il paradigma classico Lo
stato attuale di un sistema deriva dagli stati precedenti si modifica nel
seguente Lo stato attuale di un sistema deriva dalle aspettative che gli
agenti hanno sul futuro del sistema stesso, affermazione che rischia di
portarsi dietro non pochi paradossi e meccanismi autoreferenziali.
I sistemi dinamici, sia deterministici che stocastici, hanno svolto un
ruolo di primaria importanza nello sviluppo delleconomia matematica,
soprattutto in connessione con lesigenza di prevedere e controllare
levoluzione temporale dei sistemi economici e sociali. In particolare, a
partire dagli anni 30, un tema ricorrente nella letteratura stato il confronto
fra modelli deterministici e stocastici come possibili strumenti per
descrivere le oscillazioni irregolari e persistenti osservate nei sistemi
economici, in netto contrasto sia con la convergenza a un equilibrio
stazionario prevista dai modelli lineari dellequilibrio economico, che con la
periodicit delle oscillazioni endogene previste dai primi modelli
deterministici non lineari del ciclo economico. Questo aveva portato a una
crescente popolarit dei modelli lineari stabili arricchiti da termini stocastici
per rappresentare continui shock esogeni, la cui presenza in grado di
provocare le oscillazioni persistenti che si osservano nei dati reali.
Tuttavia, un altro importante aspetto, intimamente legato allo studio dei
sistemi dinamici non lineari, ha acquisito fondamentale importanza. Si tratta
del fenomeno del caos deterministico
6
, un apparente ossimoro che indica la
possibilit di generare, mediante modelli deterministici non lineari,
evoluzioni temporali praticamente indistinguibili da traiettorie casuali (ed
estremamente sensibili a variazioni, anche impercettibili, delle condizioni
iniziali). Lo descriviamo utilizzando le parole di Poincar (1903)
7
, che
esprimono la prima chiara distinzione fra caso e caos deterministico:
Una causa minima, che ci sfugge, determina un effetto considerevole, del
quale non possiamo non accorgerci: diciamo allora che questo effetto
dovuto al caso. Se conoscessimo esattamente le leggi della natura e la
situazione delluniverso allistante iniziale, potremmo prevedere esattamente
la situazione dello stesso universo in un instante successivo. Ma se pure
accadesse che le leggi naturali non avessero pi alcun segreto per noi, anche
in tal caso potremmo conoscere la situazione iniziale solo approssimati-
vamente. Se questo ci permettesse di prevedere la situazione successiva con
la stessa approssimazione, non ci occorrerebbe di pi e dovremmo dire che il
fenomeno stato previsto. Ma non sempre cos; pu accadere che piccole
differenze nelle condizioni iniziali ne producano di grandissime nei fenomeni

6
Si veda ad esempio Bischi, G.I., Carini, R., Gardini, L., Tenti P. (2004).
7
Il passo tratto da Poincar (1997, 56).





Complessit e riduzionismo
16




finali. Un piccolo errore nelle prime produce un errore enorme nei secondi.
La previsione diviene impossibile [...].
Quindi la capacit di effettuare previsioni mediante modelli dinamici non
lineari in regime caotico piuttosto limitata a causa di quella che stata poi
chiamata sensitivit rispetto alle condizioni iniziali, o anche effetto farfalla
dopo la metafora coniata nel 1972 dal meteorologo Edward Lorenz.
Negli anni 70 del secolo scorso la crescente diffusione dei concetti e
delle tecniche matematiche legate al caos deterministico ha mostrato la
possibilit di generare fluttuazioni irregolari senza bisogno di termini
stocastici, suggerendo quindi che nei sistemi economici reali ci possono
essere meccanismi endogeni capaci di creare il disordine osservato
nelleconomia reale, senza bisogno di eventi che scuotano i sistemi
dallesterno. La scoperta che anche modelli dinamici molto semplici sono in
grado di generare caos deterministico, unitamente alla constatazione che
modelli di questo genere possono essere facilmente ottenuti con ipotesi del
tutto standard di equilibrio economico generale e di competizione perfetta,
di informazione completa e aspettative razionali, ha scosso le basi di molte
delle idee alle quali si erano abituati gli economisti, in quanto ha spezzato il
legame fra determinismo e prevedibilit, creando nel contempo
unimbarazzante antinomia fra dinamiche caotiche e aspettative razionali.
8

Infatti, se un modello economico presenta dinamiche caotiche ipotizzando
che gli agenti economici siano razionali, allora per definizione di caos
deterministico essi in realt non possono in alcun modo raggiungere nelle
loro previsioni la precisione infinita richiesta per evitare gli effetti
dellestrema sensitivit delle dinamiche caotiche. In altre parole, se si parte
da un modello con aspettative razionali e si scopre che esso genera caos
deterministico, allora le previsioni non possono essere razionali (cio
perfette)
9
.
Inoltre, una delle peculiarit dei modelli dinamici utilizzati in econo-
mia, e nelle scienze sociali in genere, consiste nel considerare il tempo
discreto (event-driven time) ovvero leggi del moto espresse mediante
equazioni alle differenze anzich equazioni differenziali. Questo porta ad
ottenere con maggior facilit dinamiche caotiche, in quanto la dinamica a
tempo discreto pu condurre a oscillazioni legate a eccessiva reattivit degli
agenti, detti anche fenomeni di overshooting, e quindi a dinamiche pi
irregolari di quelli a tempo continuo.

8
Si veda: Bischi, G.I., (2010).
9
Si vedano ad esempio tre celebri articoli: Benhabib, Day (1982), Boldrin, Montrucchio,
(1986), Grandmont, (1985).





Bischi: Modelli dinamici per le scienze sociali


17






4. Conclusioni

In questo articolo si brevemente delineato il percorso attraverso il quale
leconomia si trasformata da scienza morale a scienza formale, dotandosi
di un formalismo matematico ipotetico-deduttivo simile a quello della
meccanica razionale. Il paradigma neoclassico, fondato sulle ipotesi di
mercati efficienti e agente rappresentativo dotato di aspettative razionali, sta
mostrando diversi punti di debolezza di fronte ai fenomeni osservati
nellevoluzione dei sistemi economici reali, e nuove ipotesi di carattere
psicologico, economico e sociale, unitamente a nuove tecniche
matematiche, sono state chiamate in causa come risposta allincapacit
mostrata dagli attuali modelli di prevedere e proporre rimedi alla crisi
economica e finanziaria in atto.
Ai modelli dinamici con agenti limitatamente razionali ed eterogenei si
aggiungono modelli evolutivi basati su reti di agenti interagenti i cui
microcomportamenti, basati su interazioni strategiche individuali, portano
nel lungo periodo, e su larga scala, a far emergere macrocomportamenti
collettivi
10
.
Si stanno cos facendo strada modelli in cui gli agenti sono
limitatamente razionali e procedono in modo adattivo, ovvero attraverso
tipici processi di trial and error. Ci si chiede innanzi tutto sotto quali
condizioni, da tali modelli, possono emergere nel lungo periodo
comportamenti simili a quelli di agenti dotati di razionalit perfetta. Talvolta
esistono diversi tipi di possibili evoluzioni di lungo periodo, cio diversi
attrattori, alcuni di tipo razionale, ovvero in cui le aspettative vengono
confermate, e altri di tipo perverso, cio diversi rispetto alle aspettative. In
questi casi il tipo di evoluzione diventa path-dependent, cio condizionato
da shock esterni.
Un ruolo sempre pi importante nella modellistica economica svolto
dalla teoria dei giochi
11
, un settore della matematica in grande espansione il
cui testo fondante Theory of Games and Economic Behavior, di John Von
Neumann e Oskar Morgenstern, stato pubblicato nel 1944. Si tratta, forse
per la prima volta, di un settore della matematica nato appositamente per la
modellizzazione delle scienze sociali, in quanto creato proprio per
descrivere linterazione strategica fra soggetti umani, quindi non

10
Si veda Schelling (1978).
11
Per una introduzione elementare si veda Bischi, (2010b).





Complessit e riduzionismo
18




semplicemente mutuato dalla fisica. Anche in questo caso si stanno
diffondendo in letteratura modelli basati sulla teoria dei giochi in cui gli
agenti sono considerati limitatamente razionali e con un set informativo
incompleto. Sicuramente interessanti, in simili contesti, le situazioni in cui il
comportamento di ogni individuo influenzato dalla societ in cui vive,
essendo poi la societ, ovviamente, costituita dai singoli individui. Questo
porta a un trade-offs fra comportamenti individuali e propriet sociali
emergenti.
Infine, c attualmente una generale impressione che la crisi economica
possa portare a un cambio di paradigma anche nel modo di fare modelli
matematici nelle scienze sociali, spostandolo sempre pi verso temi e
metodi legati alla teoria della complessit, dalla meccanica statistica alla
simulazione ad agenti, modelli dinamici di reti sociali (social networks) e
giochi evolutivi. Da questo punto di vista, possiamo dire che sicuramente
viviamo tempi interessanti
12
.


Riferimenti

Benhabib, J. e Day, R., 1982, A characterization of erratic dynamics in the
overlapping generations model, Journal of Economic Dynamics and
Control, 4, pp. 37-55.
Bischi, G.I., Carini, R., Gardini, L., Tenti P., 2004, Sulle Orme del Caos.
Comportamenti complessi in modelli matematici semplici, Bruno
Mondadori Editore, Milano.
Bischi, G.I., 2010a, Caos deterministico, modelli matematici e
prevedibilit, APhEx, Il portale italiano di filosofia analitica,
Giornale di Filosofia n. 2,
http://www.aphex.it/index.php?Temi=557D030122027403210304767
773.
Bischi, G.I., 2010b, Decisioni strategiche e dilemmi sociali. Orientarsi fra
le scelte con la teoria dei giochi, Thauma n. 04, Thauma Edizioni,
Pesaro, pp. 151-177.
Boldrin, M. e Montrucchio, L., 1986, On the Indeterminacy of Capital
Accumulation Paths, Journal of Economic Theory 40, pp. 26-39.
Cassirer, E., 1956, Determinism and Indeterminism in Modern Physics,
Yale University Press, New Haven.

12
Affermazione contenuta nellarticolo di Chiarella (2010). Si veda anche, nello stesso
volume, Landini (2010) e Terna (2010).





Bischi: Modelli dinamici per le scienze sociali


19




Chiarella, C., 2010, Whats beyond? Alcuni punti di vista sul futuro
delleconomia matematica in: Bischi, G.I., Guerraggio, A.,
Leconomia matematica. La sua storia nel Novecento, il suo
presente, Lettera Matematica Pristem, n.74-75.
Gandolfo, G., 1989, Sulluso della matematica in economia, Bollettino
U.M.I., (7) 3-A, pp. 250-278.
Grandmont, J.M., 1985, Endogenous Competitive Business Cycles,
Econometrica 53, pp. 995-1045.
Keynes, J. M., 1973, Collected Writings of John Maynard Keynes, a cura di
D. E. Moggridge, Macmillan e Cambridge University Press, pp. 296-
300.
Landini, S., 2010, Tra complessit e reti: un approccio fisico-statistico alle
scienze sociali in: Bischi, G.I., Guerraggio, A., Leconomia
matematica. La sua storia nel Novecento, il suo presente, Lettera
Matematica Pristem, n.74-75.
Laplace, P. S., (1776), Thorie analytique des probabilitis, V. Courcier,
Paris 1820.
Poincar, H., 1997, Scienza e metodo, Einaudi, Torino.
Schelling, T., 1978, Micromotives and Macrobehavior, W. W. Norton, New
York.
Terna, P., 2010, Complessit, evoluzione e simulazione ad agenti in
economia in: Bischi, G.I., Guerraggio, A., Leconomia matematica.
La sua storia nel Novecento, il suo presente, Lettera Matematica
Pristem, n.74-75.






2012 Luciano Boi
Remarks on the Geometry of Complex Systems and Self-Organisation in Complessit e
riduzionismo, pp. 21-36
Published by Isonomia, Rivista online di Filosofia Epistemologica ISSN 2037-4348
Universit degli Studi di Urbino Carlo Bo
http://isonomia.uniurb.it/epistemologica

21




Remarks on the Geometry
of Complex Systems and Self-Organization
Luciano Boi
cole des Hautes tudes en Sciences Sociales, Paris
luciano.boi@ehess.fr
1. Introductory remarks on the geometry of complexity
Let us start by some general definitions of the concept of complexity. We
take a complex system to be one composed by a large number of parts, and
whose properties are not fully explained by an understanding of its
components parts. Studies of complex systems recognized the importance of
wholeness, defined as problems of organization (and of regulation),
phenomena non resolvable into local events, dynamics interactions in the
difference of behaviour of parts when isolated or in higher configuration,
etc., in short, systems of various orders (or levels) not understandable by
investigation of their respective parts in isolation. In a complex system it is
essential to distinguish between global and local properties. Theoretical
physicists in the last two decades have discovered that the collective
behaviour of a macro-system, i.e. a system composed of many objects, does
not change qualitatively when the behaviour of single components are
modified slightly. Conversely, it has been also found that the
behaviour of single components does change when the overall behaviour of
the system is modified.
There are many universal classes which describe the collective
behaviour of the system, and each class has its own characteristics; the
universal classes do not change when we perturb the system. The most
interesting and rewarding work consists in finding these universal classes





Complessit e riduzionismo
22




and in spelling out their properties. This conception has been followed in
studies done in the last twenty years on second order phase transitions. The
objective, which has been mostly achieved, was to classify all possible types
of phase transitions in different universality classes and to compute the
parameters that control the behaviour of the system near the transition (or
critical or bifurcation) point as a function of the universality class.
This point of view is not very different from the one expressed by
Thom in the introduction of Structural Stability and Morphogenesis (1975).
It differs from Thoms program because there is no a priori idea of the
mathematical framework which should be used. Indeed Thom considers
only a restricted class of models (ordinary differential equations in low
dimensional spaces) while we do not have any prejudice regarding which
models should be accepted.
One of the most interesting and surprising results obtained by studying
complex systems is the possibility of classifying the configurations of the
system taxonomically. It is well-known that a well founded taxonomy is
possible only if the objects we want to classify have some unique properties,
i.e. species may be introduced in an objective way only if it is impossible to
go continuously from one specie to another; in a more mathematical
language, we say that objects must have the property of ultrametricity. More
precisely, it was discovered that there are conditions under which a class of
complex systems may only exist in configurations that have the
ultrametricity property and consequently they can be classified in a
hierarchical way. Indeed, it has been found that only this ultrametricity
property is shared by the near-optimal solutions of many optimization
problems of complex functions, i.e. corrugated landscapes in Kauffmans
language. These results are derived from the study of spin glass model, but
they have wider implications. It is possible that the kind of structures that
arise in these cases is present in many other apparently unrelated problems.
Before to go on with our considerations, we have to pick in mind two
main complementary ideas about complexity. (i) According to the prevalent
and usual point of view, the essence of complex systems lies in the
emergence of complex structures from the non-linear interaction of many
simple elements that obey simple rules. Typically, these rules consist of 01
alternatives selected in response to the input received, as in many prototypes
like cellular automata, Boolean networks, spin systems, etc. Quite intricate
patterns and structures can occur in such systems. However, what can be
also said is that these are toy systems, and the systems occurring in reality
rather consist of elements that individually are quite complex themselves.
(ii) So, this bring a new aspect that seems essential and indispensable to the





Boi: Remarks on the Geometry of Complex Systems and Self-Organization



23




emergence and functioning of complex systems, namely the coordination of
individual agents or elements that themselves are complex at their own scale
of operation. This coordination dramatically reduces the degree of freedom
of those participating agents. Even the constituents of molecules, i.e. the
atoms, are rather complicated conglomerations of subatomic particles,
perhaps ultimately excitations of patterns of superstrings. Genes, the
elementary biochemical coding units, are very complex macromolecular
strings, as are the metabolic units, the proteins. Neurons, the basic elements
of cognitive networks, themselves are cells.
In those mentioned and in other complex systems, it is an important
feature that the potential complexity of the behaviour of the individual
agents gets dramatically simplified through the global interactions within
the system. The individual degrees of freedom are drastically reduced, or, in
a more formal terminology, the factual space of the system is much smaller
than the product of the state space of the individual elements. That is one
key aspect. The other one is that on this basis, that is utilizing the
coordination between the activities of its members, the system then becomes
able to develop and express a coherent structure at a higher level, that is, an
emergent behaviour (and emergent properties) that transcends what each
element is individually capable of.


2. Complex systems

There are many different definitions of a complex system. It may range
from the classical algorithmic complexity (Kolmogorov, Chaitin) to more
recent and sophisticated definitions, such as: chemical definitions,
statistical-physics definitions, topological-dynamic definitions, biological
definition, etc. We already have given the most common and general
definition in the literature of complex systems. It should be clear, however,
that any given definition (especially a mathematical one) couldnt capture
all the complex meaning we associate with the word complexity.
One interesting definition rest on the basic idea that the more complex
the system, the more can be said about. I am excluding the factual
description of the system, which may be very long. I refer only to the global
characteristics. A few examples will help clarify this point. If I have a
sequence of randomly tossed coins, 50% probability head, I have described
the system. The only improvement would be the knowledge of the sequence
itself. If on the contrary the sequence of bits represents a book, there is
much more information, such as style, choice of words, the plot and so on.





Complessit e riduzionismo
24




If the book is really deep, complex, there are a very large number of things
that can be said about it. Sometimes the complexity is related to the
existence of different levels of description: one can describe an Escherichia
coli at the molecular level, at the biochemical level, and at the functional
level.
If we move towards a mathematical definition, we must realize that the
concept of complexity, like entropy, is of probabilistic nature and it can be
defined more precisely if we try to define the complexity of ensembles of
objects of the same category. This is related to the notion of classification.
The meaning of a complex classification is quite clear intuitively: a
classification is very complex if there are many levels (i.e. orders, families,
genera) and there are many elements in each level. Consequently a
reasonable mathematical definition of the complexity of a classification
should be possible.
3. External and internal complexity
Lets now introduce the notions of external and internal complexity of
complex adaptive systems. These concepts are especially useful to analyze
relations between an adaptive system and its environment. All open
systems, let they be either thermodynamics, biological or cognitive, are
chiefly concerned with this relation.
A complex adaptive system is situated in an environment. That
environment is always more complex than the system itself, and therefore, it
can never be completely predictable for the system, but the system depends
on regularities of the environment for maintaining its energy supply needed
to support its internal structure.
One important hypothesis one can suggest is that complex adaptive
systems try to increase their external complexity and to reduce internal
complexity. Each of two processes will operate on its own scale, but they
are also intricately linked and mutually dependent upon each other.
The increase of internal complexity can for example occur through the
creation of redundancy, e.g. duplication of some internal units or structures.
The property of redundancy is very important in biological systems at the
genetic level as well as at other more complex levels; for example, a same
gene may realize different functions and, on the other hand, many genes
may accomplish the same function. Upon this redundancy, a process of
differentiation or specialization can operate, through controlled random
mechanisms or internal selection, so that the system will become able to





Boi: Remarks on the Geometry of Complex Systems and Self-Organization



25




handle more diverse input and thereby increase its external complexity.
Once this happened, the system can then again try to represent this newly
acquired input more efficiently and thus decrease its internal complexity.
Conversely, for the decrease of internal complexity, the system can also find
some of its input as irrelevant and meaningless for its purposes and thus
decrease the external complexity.
As first definition, one can say that external complexity measures the
amount of input, information, energy obtained from the environment that
the system is capable of handling, processing. It is important that this can be
measured as an entropy and therefore, terms like energy need some
qualification when employed in this context. In this sense, external
complexity is data complexity.
Internal complexity can be defined as what that measures the
complexity of the representation of this input by the system. In this sense,
internal complexity is model complexity. The system will try to increase (or
maximize) its external complexity, and to reduce (or minimize) its internal
complexity.
We now proceed to give formal definitions of our complexity notions
based on the concept of entropy from statistical mechanics and information
theory. Given a model , the system can model data as X(), with X =
(X
1
,, X
k
), and we assume that X() introduces an internal probability
distribution P(X()) so that an entropy can be computed in (1) bellow. Our
hypothesis then is that the system will try to maximize the external
complexity,

k
i=1
P(X
i
()) log
2
P(X
i
()). (1)
The purpose of the probability distribution P(X()) is simply to qualify the
information value of the data X(). In principle, this quantification is also
possible through other means, for example, through the length of the
representation of the data in the internal code of the system. If we assume
optimal coding, however, which is a consequence of the minimization of
internal complexity, then the length of the representation of a datum X
i
()
behaves like log
2
P(X
i
()) (a code is god if frequent inputs are represented
by short code words.)
The system can try to increase the amount of information X() that is
meaningful within the given model on a short time scale, or it can adapt
the model on a larger time scale so as to be able to process more inputs as
meaningful. When the input is given, however, for example when the





Complessit e riduzionismo
26




system has gathered input on a time scale when the distribution of input
patterns
1
becomes stationary, then the model should be improved to
handle that input as efficiently as possible, i.e. to decrease the internal
complexity which we now define as follows
=
k
i=1
P(
i
()) log
2
P(
i
/()) log
2
P(). (2)
The variation is given by
min

( log
2
P(/) log
2
P()). (3)
The expression to be minimized now consists of two terms, the first
measuring how efficiently the data are encoded by the model, and the
second one how complicated the model is. Of course the probability P()
assigned to a model depends on the internal structure of the system, and in
principle, that internal structure then also became subject to optimization, in
the sense that frequently used or otherwise important models get higher
probabilities than obscure ones.
3.1. Pattern recognition in a neural network
We only mention the principle according to which a neural network can
recognize patterns on the basis of a selective evaluation of inputs features
via an internal feedback loop. (No detailed description will be presented
here).
We assume that the network or system has stored or identified a
collection of patterns labelled by i = 1,, n. These patterns might
correspond to faces, visual shapes or other geometric objects; for thinking
about this example, it is probably useful to think about patterns to be
recognized in visual scenes. Also, on its input, the system can evaluate
certain features = 1,, m, like edges, corners, or better, features of a
somewhat higher level, like specific distribution of input pixels on some
small sub-regions of the retina, or relative distances between certain
conspicuous points of the scene. It is important for understanding the
purpose of the network (the system) that we assume to in a situation where
the network is not capable of evaluating all the possible features

1
We use a different letter now to denote the inputs because we are now considering
patterns on a different time scale.





Boi: Remarks on the Geometry of Complex Systems and Self-Organization



27




simultaneously in its inputs, simply because there are typically far too many
possibilities.
Rather the idea is that the network will selectively perform
observations, that is, evaluate those features that have the highest potential
for discriminating between these patterns that are probable candidates on the
basis of the observations already performed. Thus, the basic design principle
is a feedback loop between observations that affect the probability
distribution in the space of patterns and the selection of further observations
on the basis of that probability distribution.
We first need to implement the relationship between patterns and
features. This can be done on the basis of supervised learning as is standard
in neural networks. So, the observed values x

of the features induces


activations y
i
of the patterns:
y
i
: (

w
i
x

), (4)
where might be a sigmoid function (s) = 1/1+e
ks
, where for our purpose
a rather large value of the parameter k might be best so as to get a sharp
threshold later on. Namely, we call a pattern i activated if y
i
> is some
threshold that we can turn to our convenience, perhaps again by supervised
learning. The w
i
are weights that can likewise be learned through
supervised Hebbian learning. The essential point is that they should be
positive, and perhaps large, if feature occurs in pattern i, and 0 or negative
if not.
4. Examples of complex systems
Let us now give briefly some examples of complex systems took from
different disciplines: chemistry, biology and physics. In all this examples,
understanding how parts of a living system genes or molecules interacts
is just as important as understanding the parts themselves.
In Chemistry the word complexity present some ambiguity and it is
highly dependent on context. In one characterization a complex system is:
(i) one whose evolution is very sensitive to initial conditions or to small
perturbations; (ii) one in which the number of independent interacting
components is large; (iii) or, one in which there are multiple pathways by
which the system can evolve. Analytical descriptions of such systems
typically require nonlinear differential equations. In chemistry, almost every
thing of interest is complex by one or both definitions.





Complessit e riduzionismo
28




We are here concerned with tractable complexity: a subset of
complex problems (for example, oscillating reactions) provides classical
examples of complex systems in the sense that they can be described
analytically by relative simple sets of nonlinear differential equations. But,
there are other complex problems of general importance for which there are
no simple general solutions.
In the sequence of complexity from static equilibrium, to dynamic
steady state, to dynamic complexity, to chaos there are chosen sets of
chemical reactions whose properties make them appropriate as case studies
in complexity. Oscillating reactions of the type represented by the
Belousov-Zhabotinsky reaction are perhaps the best-known example. This
class of chemical reactions has the characteristic that the simultaneous
operation of two processes, reaction and diffusion, results in a system in
which the concentration of reactants and products oscillate temporally and
spatially and in which this oscillation can result in ordered patterns. In other
words, coupled chemical reactions cause changes in concentration of the
reagents that, in turn, cause local changes in the oxidation potential of the
solution. These potentials can be visualized as oscillating travelling waves
in such a reaction.
These reactions can be described mathematically by a system of
nonlinear equations of greater or lesser complexity, but equations bellow
represent a minimum set of two reaction-diffusion equations
u/t = F(u, v) + D
u

2
u (5.1)
v/t = G(u, v) + D
v

2
v (5.2)
Here, u is the concentration of a species that catalyze reaction; v is the
concentration of a species that inhibits reactions; u/t and v/t describe
changes in concentration of u and v, respectively with time; F(u, v) and
G(u, v) characterize reactions between u and v, respectively; and Du and
Dv are the diffusion coefficients of u and v, respectively.
An important motivation in chemistry of studying complexity has been
to learn about processes in living systems. One of the most striking
characteristics of cells is the sheer complexity of metabolism. The human
genome probably has on the order of 105 expressed gene products; many of
these proteins are enzymes, receptors, and members of signalling sequences,
that is, functional parts of metabolism. Understanding a system with this
many interacting components is clearly out of the question. A more tractable
problem is to examine discrete, relatively self-contained sections of
metabolism. One metabolic cycle that has been studied in substantial detail





Boi: Remarks on the Geometry of Complex Systems and Self-Organization



29




is glycolysis, that is, the conversion of glucose to pyruvate with the
production of adenosine 5-triphosphate and the reduced form of
nicotinamide adenine dinucleotide (NAD)
2
. This sequence of reactions
involves 10 enzymes, with various levels of modulation of the catalytic
activities of some of these enzymes by the products of others.
The second example of complexity I would like to mention concerns
biological signalling systems. Biological signalling pathways interact with
one another to form complex networks. Complexity arises from the large
number of components, many with isomorphs that have partially
overlapping functions; from the connections among components; and forms
the spatial relationship between components.
Signalling in biological systems occurs at multiple levels. Already
compartmentalization introduces several levels of complexity. First, many
signalling components and their substrates are anchored in the plasma
membrane. The plasma membrane provides a milieu for biochemical
reactions that is quite distinct from the cytoplasm in its properties. The lipid
environment enables a new class of reactions involving hydrophobic
interactions. Organelle formation leads to a further expansion of the possible
cellular microenvironments, each with different biochemical properties and
signalling capabilities. Second, the separation of reactions in space allows
the same molecules in the same cell to carry entirely different signals. In
other words, we already have signalling wires distinguished by the
identity of the molecules in the pathways. Compartmentalization duplicates
these existing wires and separates them in space. This multiplies the number
of signals they can carry about.
In addition to sub-cellular compartmentalization recent research has
highlighted the role of molecular scaffolds that provide regional
organization by assembling signalling components into functional
complexes. The cytoskeleton is a dynamic framework on which the cell
builds this regional organization. The most dramatic example of its
dynamism is cell division. In the quiescent cell, it is both the substrate and
the scaffold for signalling processes.

2
Nicotinamide adenine dinucleotide (NAD and its relative nicotinamide adenine
dinucleotide phosphate (NADP) are two of the most important coenzymes in the cell.
NADP is simply NAD with a third phosphate group attached. NAD participates in many
redox reactions in cells, including those in glycolysis, and most of those in the citric acid
cycle of cellular respiration. NADP is the reducing agent produced by the light reactions
of photosynthesis, consumed in the Calvin cycle of photosynthesis, and used in many
other anabolic reactions in both plants and animals.





Complessit e riduzionismo
30




A prime example of its dual role is its synapse. Here the cytoskeleton,
in particular the pre- and postsynaptic structures, are the anchors for a wide
array of synaptic signalling molecules. Consequently, modifications of the
synaptic cytoskeleton are a likely candidate for causing long-term changes
in synaptic efficacy.
To conclude this section, we point out some theoretical remarks about
characteristic properties of complex living systems. Lets start with some
observations.
4.1. Network behaviours and emergent properties
1. Today, it is clear that the specificity of a complex biological activity
does not arise from the specificity of the individual molecules that are
involved, as these components frequently work in many different processes.
For instance, genes that affect memory formation in the fruit fly encode
proteins in the cyclic adenosine monophosphate (cAMP)
3
signalling
pathway that are not specific to memory. Biological specificity results from
the way in which these components assemble and work together.
Interactions between the parts, as well as influences from the environment,
give rise to new features, such as network behaviour.
2. Consequently, emergence has appeared as a new concept that
complements reduction when reduction fails. Emergent properties resist
any attempt at being predicted or deduced by explicit calculation or any
other means. In this regard, emergent properties differ from resultant
properties, which usually can be predicted from lower-level information.
For example the resultant mass of a multi-component protein assembly is
simply equal to the sum of the masses of each individual component.
However, the way in which we test the saltiness of sodium chloride is not
reducible to the properties of sodium and chlorine gas.
An important aspect of emergent properties is that they have their own
causal powers, which are not reducible to the powers of their constituents.
For instance, the experience of pain can alter human behaviour, but the

3
Cyclic adenosine monophosphate (cAMP, cyclic AMP or 3-5-cyclic adenosine
monophosphate) is a second messenger important in many biological processes. cAMP is
derived from adenosine triphosphate (ATP) and used for intracellular signal transduction
in many different organisms, conveying the cAMP-dependent pathway. One important
intracellular signal transduction is the transferring of the effects of hormones like
glucagon and adrenaline, which cannot pass through the cell membrane. It is involved in
the activation of protein kinases and regulates the effects of adrenaline and glucagon. It
also regulates the passage of Ca
2+
through ion channels.





Boi: Remarks on the Geometry of Complex Systems and Self-Organization



31




lower-level chemical reactions in the neurons that are involved in the
perception of pain are not the cause of the altered behaviour as the pain
itself has causal efficacy. It should be added that the concept of emergence
implies down-ward causation by which higher-level systems influence
lower-level con figurations.
3. The constituents of complex systems interact in many ways,
including negative feedback and feed-forward control, which lead to
dynamic features (i.e., evolving in time and changing with time) that cannot
be predicted satisfactorily by linear mathematical models that disregard
cooperativity and non-additive effects.
4. Robustness is another essential property of biological systems.
Understanding the mechanisms and principles underlying biological
robustness is necessary for an in-depth understanding of biology at the
system level. The phenomenological properties exhibited by robust systems
can be classified into three areas: (i) adaptation, which denotes the ability to
cope with environmental changes; (ii) parameter insensitivity, which
indicate a systems relative insensitivity to specific kinetic parameters; (iii)
graceful degradation, which reflects the characteristic slow degradation of a
systems functions after damage, rather than catastrophic failure.
In other systems, such as fluid-mechanics systems, and also engineering
systems, robustness is attained by using the following properties: (a) the
capability to form a system control such as negative feedback and feed-
forward control; (b) redundancy, whereby multiple components with
equivalent functions are introduced for backup; (c) structural stability,
where intrinsic mechanisms are built to promote stability; and (d)
modularity, where sub-systems are physically or functionally insulated so
that failure in one module does not spread to other parts an lead to system-
wide catastrophe.
5. Remarks about the property of structural stability and on self-
organization
It remains an open question whether the property of structural stability used
in the biological context present some similar characteristics with respect to
the concept of structural stability as it has been defined in differential
topology in the 1960s by R. Thom and S. Smale.
Intuitively, a phase portrait (i.e. all the qualitatively different
trajectories of the system) is structural stable if its topology cannot be
changed by an arbitrarily small perturbation to the vector field. For instance,





Complessit e riduzionismo
32




the phase portrait of a saddle point is structurally stable, but that of a center
is not: an arbitrarily small amount of damping converts the center to a spiral.
Related to the concept of structural stability, we have the notions of
attractor and strange attractor. The term attractor is difficult to define in a
rigorous way. Loosely speaking, an attractor is a set to which all
neighbouring trajectories converge. More precisely, we define an attractor to
be a closed set A with the following properties: (i) A is an invariant set: any
trajectory x(t) that starts in A stays in A for all times; (ii) A attracts an open
set of initial conditions: there is an open set U containing A such that if x(0)
U, then the distance from x(t) to A tends to zero as t . This means that
A attracts all trajectories that start sufficiently close to it. The largest such U
is called the basin of attraction of A; (iii) A is minimal: there is no proper
subset of A that satisfies conditions (i) and (ii).
Finally, we define a strange attractor to be an attractor that exhibits
sensitive dependence on initial conditions. Examples of strange attractors
are fractal sets and also chaotic attractors. Just to conclude this section, let
us remark that the four properties listed above are also found in biological
systems. Bacterial chemotaxis
4
is an example of negative feedback that
attains all three aspects of robustness. Redundancy is seen at the gene level,
where it functions in control of the cell cycle and circadian rhythms, and at
the circuit level, where it operates in alternative metabolic pathways in E.
coli. Structural stability provides insensitivity to parameter changes in the
network responsible for segment formation in Drosophila. And modularity
is exploited at various scales, from the cell itself to compartmentalized yet
interacting signal-transduction cascades.
Lastly, the concept of self-organization in cellular architecture is linked
to the complexity of biological systems. A central question in modern cell
biology is how large, macroscopic cellular structures are formed and
maintained. It is unknown what determines the different shapes and sizes of
cellular organelles, why specific structures form in particular places, and
how cellular architecture is affected by function and vice-versa.

4
Chemotaxis is the phenomenon in which somatic cells, bacteria, and other single-cell or
multicellular organisms direct their movements according to certain chemicals in their
environment. This is important for bacteria to find food (for example, glucose) by
swimming towards the highest concentration of food molecules, or to flee from poisons
(for example, phenol). In multicellular organisms, chemotaxis is critical to early
development (e.g. movement of sperm towards the egg during fertilization) and
subsequent phases of development (e.g. migration of neurons or lymphocytes) as well as
in normal functions. In addition, it has been recognized that mechanisms that allows
chemotaxis in animals can be subverted during cancer metastasis.





Boi: Remarks on the Geometry of Complex Systems and Self-Organization



33




Two fundamentally different mechanisms exist to generate
macromolecular structures: self-assembly and self-organization. Whereas
self-assembly involves the physical association of molecules into an
equilibrium structure, self-organization involves the physical interaction of
molecules in a steady-state structure. For example, virus and phage proteins
self-assemble to true equilibrium and form stable, static structures. In
contrast, most cellular structures (i.e., the cytoskeleton, nuclear
compartments, or endocytic compartments) are open for exchange of energy
and matter and are governed by steady-state dynamics.
The concept of self-organization is based on observations of chemical
reactions far from equilibrium, and it is well established in chemistry,
physics and ecology. Self-organization in the context of cell biology can be
defined as the capacity of a macromolecular complex or organelle to
determine is own structure based on the functional interactions of its
components. In a self-organized system, the interactions of its molecular
parts (and not the molecular parts them-selves) determine its architectural
and functional features. The processes that occur within a self-organized
structure are not underpinned by a rigid architectural framework; rather,
they determine its organization.
For self-organization to act on macroscopic cellular structures, three
requirements must be fulfilled: (i) a cellular structure must be dynamic; (ii)
matter and energy must be continuously exchanged; (iii) overall stable
configuration must be generated from dynamic components.
Recent studies indicate that many cellular structures fulfil the
requirements for self-organization. Particularly, self-organization seems to
play an important role in the construction and dynamics of three major
macroscopic cellular structures: namely the cytoskeleton, the cell nucleus,
and the Golgi complex.
Why self-organization? And why self-organization is related to
complexity? To answer these questions, consider the followings facts.
Macroscopic cellular structures are characterized by two apparently
contradictory properties. On one hand, they must be architecturally stable;
on the other hand, they must be flexible and prepared for change. Self-
organization ensures structural stability without loss of plasticity.
Fluctuations in the interactions properties of its components do not have
deleterious effects on the structure as a whole. However, global and
persistent changes rapidly result in morphological transformations. The
basis for the responsiveness of self-organized structures is the transient
nature of the interactions among their components.





Complessit e riduzionismo
34




The dynamic interplay of components generates frequent windows of
opportunity during which proteins can change their interaction partners or
be modified. The effective availability of components is controlled by
posttranslational modifications via signal transduction pathways.
Self-organization is an elegant, efficient way to organize complex
structures. The properties that determine the organization are the intrinsic
properties of the structures components. In protein polymers, the protein-
protein interaction properties determine the architecture; in membrane
structures the flow of membranes determines the architecture. Thus, self-
organization is a simple but effective way to optimally organize cellular
structures.
The study of complex dynamic behaviour of cellular structures requires
new tools. The behaviour of dynamic cellular structures cannot be described
accurately by conventional equilibrium dynamics or by static models. To
understand the behaviour of complex (dynamic) systems, the kinetic and
topological characteristics of their components must be known. In contrast
to the study of molecular mechanisms, isnt must sufficient to understand in
detail the behaviour of single molecules; rather, the rules that govern the
global and collective behaviour of systems must be uncovered.


Reference

Atay, F. M., Jost, J., 2004, On the emergence of complex systems on the
basis of the coordination of complex behaviours of their elements:
synchronization and complexity, Complexity, 10(1), pp. 815-867.
Ballerini, M., et al., 2008, Interaction Ruling Animal Collective Behaviour
Depends on Topological rather than Metric Distance: Evidence from a
Field Study, Proc. Nat. Acad. Sci. USA, 105, pp. 237-248.
Boi, L., 2006a, Topological knot theory and macroscopic physics in
Encyclopdia of Mathematical Physics, J.-P. Franoise, G. Naber and
T.S. Sun (Eds.), Elsevier, Oxford, pp. 271-277.
Boi, L., 2006b, Gomtrie, dynamique et auto-organisation dans la nature
et le vivant in Symtries, Brisures de Symtries et Complexit en
Mathmatiques, Physique et Biologie, L. Boi (Ed.), Peter Lang, Bern,
pp. 9-19.
Boi, L., 2007, Geometrical and topological modelling of supercoiling in
supramolecular structures, Biophysical Reviews and Letters, 2 (3/4),
pp. 287-299.





Boi: Remarks on the Geometry of Complex Systems and Self-Organization



35




Boi, L., 2008, Topological ideas and structures in fluid dynamics, JP
Journal of Geometry and Topology, 8 (2), pp. 151-184.
Boi, L., 2011a, When Topology Meets Biology For Life. The Interaction
Between Topological Forms and Biological Functions in New Trends
in Geometry. Their Role in the Natural and Life Sciences, C. Bartocci,
L. Boi, C. Sinigaglia, Imperial College Press, London, pp. 241-302.
Boi, L., 2011b, Geometry of dynamical systems and topological stability:
from bifurcations, chaos and fractals to dynamics in natural and life
sciences, International Journal of Bifurcation and Chaos, 21 (3), pp.
1-52.
Boi, L., 2011c, Plasticity and Complexity in Biology: Topological
Organization, Regulatory Protein Network, and Mechanisms of
Genetic Expression in Information and Biological Systems.
Philosophical and Scientific Perspectives, G. Terzis and R. Arp (eds.),
The MIT. Press, Cambridge, MA, pp. 234-279.
Bocchi, G., and Ceruti, M. (Eds.), 1985, La sfida della complessit,
Feltrinelli, Milan.
Cencini, M., Cecconi, F., and Vulpiani, V., 2009, Chaos: From Simple
Models to Complex Systems, World Scientific, Singapore.
Cornish-Bowden, A., and M.L. Crdenas, 2005, System biology may work
when we learn to understand the parts in terms of the whole,
Biochemical Society Transactions, 33, pp. 516-519.
Del Re, G., 1996, Organization, Information, Autopoiesis: From Molecules
to Life in The Emergence of Complexity in Mathematics, Physics,
Chemistry, and Biology, B. Pullman (Ed.), Pontificia Academia
Scientiarum, Vatican City/Princeton University Press, Princeton, pp.
277-305.
Gell-Mann, 1995, What is Complexity?, Complexity, 1, pp.16-19.
Jost, J., 1998, On the notion of complexity, Theory in Biosciences, 117,
pp. 161-171.
Kauffman, S., 1993, The Origins of Order: Self-Organization and Selection
in Evolution, Oxford University Press, Oxford.
Kauffman, S., 1995, At Home in the Universe: The Search for Laws of Self-
Organization and Complexity, Oxford University Press, Oxford.
Nedelec, F., Surrey, T., and E. Karsenti, 2003, Self-organization and forces
in the microtubule cytoskeleton, Curr. Opin. Cell Biol., 15 (1), pp.
118-124.
Mastelli, T., 2001, The concept of self-organization in cellular
architecture, The Journal of Cell Biology, 155 (2), pp. 181-185.





Complessit e riduzionismo
36




May, R. M., 1976, Simple mathematical models with very complicated
dynamics, Nature, 261, pp. 459-464.
Meinhardt, H., 2000, Biological Pattern Formation as a Complex Dynamic
Phenomena in Pattern Formation in Biology, Vision and Dynamics,
A. Carbone, M. Gromov, P. Prusinkiewicz (Eds.), World Scientific,
Singapore, pp. 97-132.
Nicolis, G., Prigogine, I., 1989, Exploring Complexity: An Introduction,
Freeman, New York.
Parisi, G., 1988, Statistical Field Theory, Addison-Wesley, Redwood City,
CA.
Prigogine, I., Nicolis, G., 1977, Self-Organization in Non-Equilibrium
Systems, Wiley, New York.
Smale, S., 1980, The Mathematics of Time. Essays on Dynamical Systems,
Economics Processes, and Related Topics, Springer-Verlag, New
York.
Strogatz, S. H., 1994, Nonlinear dynamics and chaos. With applications to
physics, biology, chemistry, and engineering, Perseus Publishing, New
York.
Thom, R., 1994, Stabilit structurelle et morphogense, W. A. Benjamin,
New York.
Tononi, G., Sporns, O, Edelman, G., 1944, A measure for brain
complexity: relating functional segregation and integration in the
nervous system, Proc. Nat. Acad. Sci. USA, 91, pp. 5033-5037.
Wang, L. et al., 2005, Cyclic AMP (cAMP) and cAMP Receptor Protein
Influence both Synthesis and Uptake of Extracellular Autoinducer 2 in
Escherichia coli, Journal of Bacteriology, 187(6), pp. 2066-2076.







2012 Claudio Calosi, Vincenzo Fano
Coscienza e fisicalismo minimale, in Complessit e riduzionismo, pp. 37-46
Published by Isonomia, Rivista online di Filosofia Epistemologica ISSN 2037-4348
Universit degli Studi di Urbino Carlo Bo
http://isonomia.uniurb.it/epistemologica

37




Coscienza e fisicalismo minimale
Claudio Calosi
Universit degli Studi di Urbino Carlo Bo
claudio.calosi@uniurb.it
Vincenzo Fano
Universit degli Studi di Urbino Carlo Bo
vincenzo.fano@uniurb.it
Introduzione
In questo lavoro si presenta un nuovo esperimento mentale che solleva un
particolare problema per quello che possiamo chiamare fisicalismo
minimale in filosofia della mente. In particolare si argomenta che il
fisicalismo minimale o i) non in grado di fornirne un resoconto adeguato
dellesperimento mentale presentato, o ii) viene costretto a fornire un
resoconto che fortemente in contrasto con la nostra immagine scientifica
del mondo. Il problema sollevato un particolare esempio di quelli che
Chalmers (1996) definisce hard problems in filosofia della mente. Questa
la struttura del lavoro. Nella sezione 2. si presenta lesperimento mentale,
che chiameremo di Shem-Shaun
1
. Nella sezione 3. illustriamo il nostro
argomento principale contro il fisicalismo minimale a partire
dallesperimento mentale della sezione precedente. Nella sezione conclusiva
si discutono diversi modi di controbattere allargomento principale e le sue
conseguenze per il fisicalismo.


1
Abbiamo ripreso i nomi dai due gemelli protagonisti di Finnegans Wake di James Joyce.





Complessit e riduzionismo
38




1. LEsperimento Mentale Shem-Shaun
Si considerino due gemelli identici, Shem e Shaun. Si immagini adesso che
Shem e Shaun siano pi che gemelli identici. Siano duplicati abbiano cio
esattamente le stesse propriet intrinseche nel senso di Lewis (1986, p.
61), per prendere in prestito un termine familiare in metafisica analitica.
Anzi, siano Shem e Shaun due individui numericamente diversi ma
indistinguibili se non per la loro collocazione spaziale.
Non entriamo qui nella delicata questione della validit del principio di
identit degli indiscernibili. Si assume per che una situazione del genere
sia fisicamente possibile. Coloro che volessero sostenere che tale assunzione
controversa, e che Shem e Shaun sarebbero numericamente identici, e con
questo bloccare il nostro argomento sul nascere, dovrebbero anche essere
disposti a sostenere che nel mondo esisterebbero solo sei quark, up, down,
top, bottom, strange e charme, dato che nulla distingue due quark dello
stesso tipo se non la loro collocazione spaziale.
Dunque Shem e Shaun sono due individui numericamente diversi ma
indistinguibili. Siano messi, immediatamente dopo la nascita in due stanze
diverse, Stanza-Shem e Stanza-Shaun rispettivamente. Si assuma che la
Stanza-Shem e la Stanza-Shaun siano esse stesse perfetti duplicati. I due
gemelli vengano legati a due sedie nella stessa collocazione spaziale
relativa. Le sedie sono esse stesse luna il duplicato dellaltra. Siano legati
alle sedie e impossibilitati a compiere un qualsiasi movimento. Si supponga
inoltre che a t
0
le due stanze siano completamente nel buio e nel silenzio.
Si supponga che a t
1
una luce rossa di una particolare frequenza, la si
chiami Luce-Rossa-Shem, collocata in una particolare posizione spaziale su
una parete, venga accesa nella Stanza-Shem per 3 secondi. Allora a t
1
una
luce rossa, la si chiami, Luce-Rossa-Shaun, che un perfetto duplicato della
Luce-Rossa-Shem, viene accesa per 3 secondi nella stessa collocazione
spaziale relativa nella Stanza-Shaun.
Si supponga che a t
2
un suono di un particolare tono, intensit e timbro,
lo si chiami Suono-Shem, venga emesso da una sorgente collocata in una
determinata posizione spaziale e venga udito per 3 secondi nella Stanza-
Shem. Allora un suono dello stesso tono, intensit e timbro, lo si chiami
Suono-Shaun, che un perfetto duplicato del Suono-Shem, viene emesso da
un duplicato naturale della sorgente menzionata sopra collocata nella stessa
posizione spaziale relativa, e viene udito nella Stanza-Shaun per 3 secondi.
Questo dovrebbe essere sufficiente per far comprendere il setting
dellesperimento mentale. Per dirla brevemente, si chiami World-Shem (W-
Shem), linsieme della Stanza-Shem e di tutti gli oggetti fisici ed eventi che





Calosi, Fano: Coscienza e fisicalismo minimale



39




vi sono collocati. Si chiami invece World-Shaun (W-Shaun), linsieme della
Stanza-Shaun e di tutti gli oggetti fisici ed eventi che vi sono collocati.
Allora W-Shem e W-Shaun sono perfetti duplicati, anzi possono essere
considerati due individui numericamente diversi e indistinguibili se non per
la collocazione spaziale. Ne segue che per ogni caratteristica fisica
2
f-Shem
in W-Shem esiste una caratteristica fisica f-Shaun in W-Shaun che un
perfetto duplicato della prima. Da questo deriva a sua volta
lindistinguibilit fisica di W-Shem e W-Shaun:

(Indistinguibilit Fisica IF): Non esiste una caratteristica fisica f tale
che W-Shem e W-Shaun sono distinguibili rispetto a f, tranne la
collocazione spaziale.

Questo , brevemente, lesperimento mentale Shem-Shaun. Nella sezione
successiva si argomenter che, dato IF, tale esperimento solleva un
importante problema per il fisicalismo minimale.
2. Fisicalismo Minimale, Sopravvenienza e coscienza
Ci sono naturalmente diverse varianti di Fisicalismo
3
. possibile definire
quello che chiameremo Fisicalismo Minimale, in quanto una delle sue
forme pi deboli. A tal fine useremo la nozione di sopravvenienza nel modo
seguente:

(Fisicalismo Minimale FM): Ogni propriet mentale M o insieme di
propriet mentali M sopravviene su un qualche insieme di propriet
fisiche P.

bene essere espliciti riguardo alle nozioni e alle assunzioni dellargomento
che stiamo andando a proporre. Una di queste assunzioni una certa
caratterizzazione standard della nozione di sopravvenienza, che serve per
la comprensione stessa di FM. La definizione seguente stata adattata da
Kim (1984):

(Sopravvenienza delle Propriet Mentali SPM): Sia M
1
M
n
un insieme M
di propriet (monadiche o poliadiche) mentali e siano x
1
x
o
individui che

2
Siamo deliberatamente vaghi a questo stadio iniziale dellargomento.
3
Si veda ad esempio Chalmers (1996), Horgan (1982), Jackson (1994), Kim (1984) e
Lewis (1983) per nominarne solo alcuni.





Complessit e riduzionismo
40




possano istanziare tali propriet. Sia inoltre P
1
P
m
un insieme P di
propriet (monadiche o poliadiche) fisiche che possono essere istanziate
dagli stessi individui. Allora, per ogni coppia M
i
, M
j
con M
i
, M
j
M e M
i

M
j
, se M
i
(x
i1
x
ik
) e M
j
(x
j1
.x
jl
), allora esistono due propriet fisiche P
i
e P
j

tali che valgono tutte le seguenti condizioni:
i) P
i
P
j

ii) P
i
(x
i1
x
ik
) e P
j
(x
j1
.x
jl
)
iii) necessariamente P
i
(x
i1
x
ik
) M
i
(x
i1
x
ik
)
e necessariamente P
j
(x
j1
.x
jl
) M
j
(x
j1
.x
jl
),

dove il senso di necessariamente deve essere adeguatamente specificato.
Differenti caratterizzazioni di tale necessit, logica, metafisica o
nomologica, comportano diversi concetti di sopravvenienza. Nel seguito
intenderemo tale necessit in senso nomologico, cio esistono una o pi
leggi di natura che giustificano le implicazioni iii). In altre parole, se due
gruppi di individui x
i1
x
ik
e x
j1
.x
jl
hanno distinte propriet mentali M
i
e M
j

devono esistere due propriet fisiche P
i
e P
j
tali che x
i1
x
ik
e x
j1
.x
jl
hanno
P
i
e P
j
rispettivamente e tali che listanziazione di tali propriet da parte di
x
i1
x
ik
e x
j1
.x
jl
implichi nomologicamente listanziazione delle rispettive
propriet mentali. SPM chiarisce come interpretare FM. In pratica: nessuna
M-differenza senza una P-differenza
4
.
Notiamo inoltre che i termini mentale e fisico vanno intesi non
come caratterizzazioni strettamente ontologiche, ma come predicati duso
scientifico. Ovvero una propriet mentale quando il riferimento di un
termine che compare in modo essenziale nelle nostre migliori teorie
psicologiche
5
. Essenziale significa che non sostituibile con un tipo di
comportamento o con un parametro neurofisiologico. Qualcosa di simile si
pu dire del termine propriet fisiche. Sono propriet fisiche la
concentrazione della serotonina in una sinapsi, il potenziale dazione di un
neurone, la lunghezza di un assone, il numero di dendriti di un neurone ecc.
Per proseguire la nostra argomentazione, abbiamo bisogno di chiarire
alcune nozioni di filosofia della mente. Intendiamo per essere senziente un
individuo che in qualche modo in grado di istanziare un qualche insieme
di propriet mentali M
1
M
n
. Un essere cosciente , invece, un essere
senziente che, a volte, quando istanzia una particolare propriet mentale M
i
,

4
Shem e Shaun sono immersi in situazioni fisicamente indistinguibili, per cui qui
irrilevante se le loro propriet mentali abbiano o meno caratteristiche esternaliste.
5
Assumiamo qui il realismo delle propriet, ma probabilmente il nostro argomento
potrebbe essere riformulato senza, anche se in modo pi complicato.





Calosi, Fano: Coscienza e fisicalismo minimale



41




istanzia anche la propriet mentale Self (M
i
) relativa alla propriet mentale
M
i
, cio lessere cosciente di M
i
. E chiaro che con questo non abbiamo
specificato in che cosa consista questa nuova propriet. Le propriet mentali
M
1
.M
n
vengono chiamate propriet mentali del primo ordine. Resta il
problema di comprendere che cosa sia la propriet mentale Self (M
i
). Non
abbiamo qui bisogno di una precisa caratterizzazione di tale propriet, che,
come noto, molto difficile da individuare. E sufficiente la seguente
assunzione:

Principio dellio penso (PIP). Se Q possiede la propriet Self (M
i
),
allora Self (M
i
) del tutto determinata da M
i
.

In pratica, stiamo assumendo che lindividuo Q pu essere cosciente di M
i
in
un solo modo. chiaro che se Q cambia nel tempo anche il suo modo di
essere cosciente cambier. Tutto ci molto ragionevole e non ha bisogno
di ulteriori giustificazioni
6
. Labbiamo chiamato Principio dellIo Penso
perch ricorda Kant nella misura in cui la coscienza una vuota funzione
dei nostri vissuti o propriet mentali del primo ordine. A differenza per del
filosofo tedesco la nostra coscienza non sempre la stessa funzione nel
tempo.
Si supponga adesso che M
1
M
n
esauriscano tutte le propriet mentali
del primo ordine di un particolare individuo X a un certo istante t. Allora
Self (M
1
M
n
) viene detta coscienza massimale di X. Le propriet mentali di
tipo Self possiamo chiamarle invece del secondo ordine.
ragionevole supporre che la propriet Self massimale cambia se
cambia lindividuo a cui pertiene. Ovvero individui diversi hanno coscienza
massimale diversa:

(Identit Numerica Individui Coscienze INIC): Per tutti gli individui
coscienti numericamente distinti n esistono n distinte propriet di
avere una coscienza massimale.

In altre parole INIC coglie una particolare caratteristica della propriet
mentale del secondo ordine di avere una coscienza massimale, il fatto che
ogni distinto individuo cosciente ha una sua propria distinta coscienza

6
PIP non in contrasto con i diversi tipi di personalit multipla noti in letteratura, da quelli
dovuti alla recisione del corpo calloso a quelli causati da gravi traumi infantili, poich in
questi casi una stessa situazione mentale conterr allo stesso tempo due o pi coscienze
separate, ma questo non significa che la stessa situazione mentale pu dare origine a
coscienze diverse.





Complessit e riduzionismo
42




massimale tra le proprie propriet mentali. Supponiamo, ad esempio, che
Anna Livia Plurabelle
7
sia una individuo cosciente. Allora non possibile
per lei istanziare la propriet di avere la coscienza massimale di James
Joyce, o di qualunque altro individuo. Adesso tutto pronto per formulare
largomento principale da cui deriva che il Fisicalismo Minimale FM non
sarebbe in grado di fornire un adeguato resoconto dellesperimento Shem-
Shaun. Ecco il ragionamento:
1. Si supponga che Shem e Shaun abbiano le seguenti propriet mentali
del primo ordine rispettivamente, {M
1 Shem
, , M
n Shem
} e {M
1 Shaun
, ,
M
n Shaun
}. Si chiami il primo insieme M-Shem e il secondo M-Shaun.
2. Il setting costituito in modo che fra W-Shem e W-Shaun sussiste
Indistiguibilit Fisica. Dunque, se vale il Fisicalsimo minimale, si
conclude che M-Shem = M-Shaun.
3. Si supponga adesso che sia Shem che Shaun siano due esseri
coscienti. Allora esistono due propriet mentali del secondo ordine
Self (M-Shem) e Self (M-Shaun). Tali propriet non sono infatti altro
che lavere la coscienza massimale di Shem e Shaun rispettivamente.
4. A questo punto, da INIC possiamo dedurre che Self (M-Shem) Self
(M-Shaun). Tali propriet mentali sono propriet mentali degli stessi
individui delle quali sono determinate, cio Self (M-Shem) una
propriet di Shem e Self (M-Shaun) una propriet di Shaun.
5. Allora, dato il Fisicalismo Minimale e la caratterizzazione di
sopravvenienza in SPM devono esistere due propriet
8
fisiche P
i
e P
j

tali che P
i
P
j
e valga P
i
(Shem) e P
j
(Shaun), cio P
i
propriet di
Shem e P
j
propriet di Shaun.

6. Ma segue naturalmente dallindistinguibilit fisica IF di W-Shem e W-
Shaun che non esistono tali propriet.
Abbiamo dunque dedotto una contraddizione dal Fisicalismo Minimale
(FM), dallIdentit Numerica Individui Coscienze (INIC) e dal Principio
dellIo Penso (PIP). E molto difficile sostenere che individui diversi
possano avere la stessa coscienza nel senso numerico del termine (non

7
Abbiamo sempre ripreso da Finnegans Wake.
8
Possono essere naturalmente due insiemi di propriet. Siccome nulla dipende da questo
nellargomento ci si riferisce al caso semplice di due propriet.





Calosi, Fano: Coscienza e fisicalismo minimale



43




INIC). E anche abbastanza strano sostenere che si possa essere in stati
coscienti diversi senza cambiare alcuna propriet mentale (non PIP).
Dunque lanello debole sembra essere proprio il Fisicalismo Minimale, che
quindi viene messo in discussione da questo esempio.
Esiste tuttavia una replica a questa prima formulazione dellargomento
che un fisicalista potrebbe avanzare. Il fisicalista potrebbe infatti
argomentare che siamo stati troppo frettolosi nel sostenere il principio di
Indistinguibilit Fisica per W-Shem e W-Shaun. In realt, prosegue il
fisicalista, esiste, anche nellesperimento Shem-Shaun, una caratteristica
fisica in grado di distinguere W-Shem e W-Shaun. Anzi, proprio quella
caratteristica fisica che ha garantito che si potessero considerare Shem e
Shaun come due individui numericamente distinti in prima battuta. Stiamo
naturalmente parlando della loro collocazione spaziale
9
. Si usi la seguente
notazione:
ExL-R(x) per x esattamente collocato nella regione R
10
.
Allora, continua il fisicalista, esiste una caratteristica fisica che distingue W-
Shem e W-Shaun dopotutto, ed il fatto che Shem e Shaun godono di
propriet del genere di ExL-R diverse. Tale differenza viene poi usata per
rendere conto della diversit nelle propriet mentali di Shem e Shaun,
salvando in questo modo il Fisicalismo Minimale dal nostro argomento.
Questa replica, per quanto ragionevole, non risolve tuttavia i problemi
per il fisicalismo, ma li rimanda solamente. O almeno questo quello che si
cerca di argomentare nel seguito della sezione. Prima di tutto da notare un
dettaglio che potrebbe apparire almeno controverso. Il nostro argomento
implica non solo che deve esserci una caratteristica fisica in grado di
distinguere W-Shem da W-Shaun, ma la conseguenza pi forte che esistano
due propriet fisiche diverse instanziate da Shem e Shaun rispettivamente.
Allora il fiscalista costretto a sostenere che lesatta collocazione di Shem e
Shaun da contarsi tra le loro propriet fisiche. Questo di per s gi
abbastanza controverso.
Per dare comunque al fisicalista la maggiore possibilit di difesa, si
conceda che questo possa essere consistentemente sostenuto, ad esempio
invocando particolari interpretazioni delle nostre migliori teorie spazio-

9
Considerare la collocazione spaziale o spaziotemporale risulta irrilevante ai fini
dellargomento. Ci si riferisce dunque al caso della sola collocazione spaziale.
10
Nulla nellargomento dipende dal fatto che si considera lesatta collocazione come una
propriet monadica piuttosto che una relazione a due posti che intercorre tra un oggetto e
una regione spaziale.





Complessit e riduzionismo
44




temporali
11
. Ne segue comunque che esistono due propriet fisiche ExL-R
Shem
e ExL-R
Shaun
tali che ExL-R
Shem
ExL-R
Shaun
e ExL-R
Shem
(Shem),
ExL-R
Shaun
(Shaun) valgono entrambe. La distinzione nelle propriet
mentali tra Shem e Shaun dipende in qualche modo dalla distinzione indotta
da queste propriet fisiche, contrariamente alla nostra conclusione.
Il problema con questa linea di difesa che i sostenitori del Fisicalismo
Minimale devono intendere tale dipendenza nei termini della
sopravvenienza delineata in SPM. Ma una stretta applicazione di SPM
implica il seguente principio, che sembra essere non solo veramente
controverso di per s, ma anche fortemente in contrasto con la nostra
immagine scientifica del mondo. Tale principio pu venire formulato nel
modo seguente:
(Collocazione Necessariamente Implica Coscienza CoNIC):
necessario che ExL-R
Shem
(Shem) Self(M-Shem) (Shem) ed
necessario che ExL-R
Shaun
(Shaun) Self(M-Shaun) (Shaun).
Come si gi detto diverse interpretazioni delloperatore di necessit danno
vita a diverse forme di sopravvenienza e conseguentemente a diverse letture
di principi quali CoNIC. Ma facile vedere che anche la lettura pi debole
di tale operatore, quella nomologica, rende un principio come CoNIC in
contrasto con la nostra immagine scientifica del mondo. Infatti, secondo tale
lettura, esisterebbe una legge di natura tale che una particolare collocazione
spaziale implicherebbe lavere una particolare coscienza. In altre parole, che
Shem abbia la sua particolare coscienza massimale dipende dal fatto che
Shem collocato dove collocato. Lo stesso vale per Shaun. Se Shaun fosse
stato collocato nella stanza di Shem avrebbe avuto una coscienza diversa. E
lo stesso vale per Shem. Qualunque teoria filosofica che abbia come
conseguenza un principio come CoNIC dovrebbe essere ritenuta fortemente
problematica, proprio perch contraria allimmagine scientifica del mondo,
almeno al grado di conoscenza attuale. E abbiamo appena argomentato che
il Fisicalismo Minimale, se vuole dare un resoconto dellesperimento Shem-
Shaun, implica esattamente tale conseguenza.


3. Conclusione


11
Ci si potrebbe riferire al fatto che ogni punto dello spazio-tempo in relativit generale
pu avere metrica diversa.





Calosi, Fano: Coscienza e fisicalismo minimale



45




Per concludere bene considerare alcuni modi di evitare largomento
presentato e alcune delle sue conseguenze.
Un primo modo molto generale naturalmente dato dallo scetticismo
sul ruolo epistemologico degli esperimenti mentali in filosofia della mente.
Non possibile tentare una difesa di tale ruolo in questa sede. Ci si limita
dunque ad osservare che il ricorso ad esperimenti mentali pratica
notevolmente diffusa. Basti ricordare lesperimento mentale della neuro-
fisiologa della visione Mary in Jackson (1982) e Jackson (1984) e quello
sulla possibilit logica degli zombie in Chalmers (1996) per fare solo pochi,
famosi esempi. Tuttavia questo aspetto meriterebbe unulteriore discussione.
Una seconda possibilit data dallobiettare alla nostra definizione di
sopravvenienza o alla particolare interpretazione nomologica che si
attribuita a tale nozione. Due cose sono per da osservare. La prima, pi
generale, che la definizione usata quella standard, ormai ampiamente
accettata e condivisa. Quanto alla sua interpretazione in senso nomologico si
osserva solamente che questa in definitiva quella pi debole. Dunque se il
nostro argomento presenta una effettiva difficolt per il fisicalismo lo far a
maggior ragione per una qualunque interpretazione della sopravvenienza
che invece faccia ricorso a nozioni di necessit pi forti, quali quella logica
o metafisica. Da notare che si opportunamente qualificato il fisicalismo
come minimale anche per questa ragione.
Paradossalmente si potrebbe tentare di salvare il fisicalismo non
indebolendo, ma rafforzando la sua formulazione. Si supponga infatti di
sostenere la seguente versione del fisicalismo:
(Fisicalismo dellIdentit dei Tipi FIT): Per ogni propriet mentale M
i

esiste una propriet fisica P
i
o un insieme di propriet fisiche
{P
i1
P
in
} tali che o M
i
= P
i
o M
i
= {P
i1
P
in
}.
La prima cosa da notare che, di per s, FIT non implica alcuna istanza
eliminativista nei confronti delle propriet mentali. Vediamo poi perch FIT
immune dal nostro argomento. Siano Self(M
1
M
m
) e Self(M
n
M
z
) le
coscienze massimali di due individui distinti. Allora, dato FIT esisteranno
propriet fisiche, siano per semplicit P
1
e P
2
, tali che Self(M
1
M
m
) = P
1
e
Self(M
n
M
z
) = P
2
. Abbiamo ipotizzato che non sia possibile che due
individui abbiano la stessa coscienza, cio INIC. Si pu vedere, per, che se
vale lidentit dei tipi, cio FIT, allora INIC pu venir violato. Infatti, si
supponga che P
1
= P
2
. Allora banalmente, Self(M
1
M
m
) = Self(M
n
M
z
).
Ma una stessa propriet fisica, come P
1
(=P
2
) pu essere istanziata da
individui diversi. Si pensi, ad esempio, alla propriet di non avere massa.
Tutti i fotoni istanziano questa propriet. Dunque sarebbe possibile, dato





Complessit e riduzionismo
46




FIT, per diversi individui istanziare la propriet di avere la stessa coscienza
massimale. In altre parole, FIT permette di salvare il fisicalismo
abbandonando INIC. Resta da valutare quanto labbandono di INIC sia un
prezzo troppo alto da pagare per salvare il fisicalismo.

Per finire si deve considerare la seguente domanda. Supponiamo che
largomento presentato mostri effettivamente una difficolt per il fisicalismo
anche minimale. Ne segue che tale tesi falsa? Questo sarebbe a dir poco
affrettato. Ne segue soltanto che, date le nostre conoscenze scientifiche
attuali, non si conoscono effettivamente leggi di natura che in qualche modo
riescano a dare una spiegazione convincente della ragione per cui
listanziazione di determinate propriet fisiche porti allistanziazione di
determinate propriet mentali, quali la coscienza. Si identifica spesso il
fisicalismo con un atteggiamento naturalista in senso lato, cio un
atteggiamento che sarebbe in qualche modo pi vicino alla scienza. In
questa caso invece un naturalismo correttamente interpretato sembra per ora
suggerire maggiore cautela.
Riferimenti
Chalmers D., 1996, The Conscious Mind, Oxford University Press, Oxford.
Horgan, T., 1982, Supervenience and Microphysics, Pacific
Philosophical Quarterly, 63, pp. 29-43.
Horgan, T., 1984, Functionalism, Qualia and the Inverted Spectrum,
Philosophy and Phenomenological Research, 44, pp. 453-469.
Jackson, F., 1982, Epiphenomenal Qualia, Philosophical Quarterly, 32,
pp. 127-136.
Jackson, F., 1984, What Mary Didnt Know, Journal of Philosophy 83, pp.
291-295.
Jackson, F., 1994, Finding the Mind in the Natural World in: R. Casati, B.
Smith and G. White (eds.), Philosophy and the Cognitive Sciences,
Holder-Pilcher-Tempsky, Vienna, pp.483-492.
Kim J., 1984, Concepts of Supervenience, Philosophy and Philosophical
Research, 45, pp. 153-176.
Lewis D., 1983, New Work for a Theory of Universals, Australasian
Journal of Philosophy, 61, pp. 343-377.
Lewis D., 1986, On the Plurality of Worlds, Blackwell, Oxford.






2012 Salvo DAgostino
Newton, Ampre, Maxwell, Einstein: sulla deduzione dei fenomeni, in Complessit e
riduzionismo, pp. 47-56
Published by Isonomia, Rivista online di Filosofia Epistemologica ISSN 2037-4348
Universit degli Studi di Urbino Carlo Bo
http://isonomia.uniurb.it/epistemologica

47




Newton, Ampre, Maxwell, Einstein:
sulla deduzione dei fenomeni
Salvo DAgostino
Universit di Roma La Sapienza
saldagostino1921@tiscali.it
1. Introduzione
Il tema della complessit della scienza stato da qualche decennio oggetto
di una vasta letteratura sia sul versante pi strettamente scientifico, sia sul
piano filosofico. Un argomento emerso con notevole interesse ha riguardato
un aspetto della complessit inteso come rinuncia a una generalizzazione dei
procedimenti assiomatico-deduttivi come metodo generale della ricerca
scientifica. stata espressa la convinzione che la fisica pre-relativistica sia
stata fondata prevalentemente sul trionfo di questo metodo, sulla scia, fra
laltro, della gloriosa tradizione dei Principia newtoniani. Pur riconoscendo
la sua imponenza storica e concettuale, che ha condotto spesso a una sua
identificazione con la stessa tradizione della scienza occidentale, la mia
ricerca storica ha evidenziato una posizione antagonista presente nelle idee
di Newton, e ripresa da due grandi fisici ottocenteschi, Ampere e Maxwell,
posizione consistente in un ricorso alla cosiddetta deduzione dai fenomeni,
un metodo di ricerca che rappresenta unimportante alternativa rispetto al
metodo assiomatico-deduttivo. Nei primi decenni del nuovo secolo, si
impongono poi progressivamente le idee di Einstein, che sul problema del
metodo presentano unirrisolta problematica. La celebrazione del metodo
assiomatico-deduttivo si contrappone ad una lode dellosservazione dei
fenomeni e della riflessione sugli esperimenti, una variazione sul tema della
deduzione dai fenomeni. Seppure i contributi del grande scienziato alle
teorie derivate dagli assiomi del campo generalizzato non portarono a teorie





Complessit e riduzionismo
48




conclusive, le sue idee in merito contribuirono enormemente alla moderna
riflessione storico-epistemologica sulla scienza.


2. Newton: la deduzione dai fenomeni si accorda con la proibizione delle
ipotesi

Unattenta lettura della grande opera di Newton, Principia Mathematica
Philosophiae Naturalis
1
, il primo caso storico nella scienza moderna di una
parziale assiomatizzazione della meccanica celeste, mostra che ai capitoli di
una scienza dei principi si alternano procedimenti indicati da Newton come
deduzione dai fenomeni. notevole, ma, a mia conoscenza ignorato dalla
storiografia, che la tematica della deduzione dai fenomeni si accordi in
Newton con la sua ben nota proibizione delle ipotesi. Una sua chiara
affermazione figura in un passo del Libro Terzo dellopera, Il Sistema del
Mondo:
Ma sino ad ora non sono stato capace di scoprire attraverso i fenomeni la
causa di quelle propriet della gravit e non escogito [I frame not] ipotesi;
perch qualsiasi cosa che non dedotta dai fenomeni, deve chiamarsi
unipotesi, e le ipotesi, sia metafisiche sia fisiche sia delle qualit occulte sia
meccaniche, non devono figurare nelle filosofia sperimentale.
2

Si noti che nel passo citato Newton fa coincidere il metodo della deduzione
dai fenomeni con quello della proibizione delle ipotesi. Secondo la logica
newtoniana, infatti, il metodo di deduzione dai fenomeni che evita ricerca
e introduzione di ipotesi. Il metodo di deduzione dai fenomeni quindi il
metodo della filosofia naturale perch esente da ipotesi. Il metodo della
induzione dai fenomeni viceversa affermato nella IV Regola del
Filosofare, una delle regole del metodo scientifico, premessa allo stesso
Terzo Libro:
Nella filosofia sperimentale dobbiamo riguardare le proposizioni inferite
attraverso la induzione generale dai fenomeni come vere con precisione o con
approssimazione, nonostante ogni ipotesi contraria che possa essere
immaginata, sino a quando non si presentino altri fenomeni con i quali essi
[le proposizioni] possono essere o rese pi accurate o difettose. Dobbiamo

1
Newton (1729).
2
Newton (1729, 371)





DAgostino: Newton, Ampre, Maxwell, Einstein: sulla deduzione dei fenomeni



49




seguire questa regola affinch il metodo [the argument] dellinduzione non
possa essere aggirato con delle ipotesi [corsivo nel testo].
3

I due metodi, che indicher qui per brevit come deduttivo e induttivo,
possono presentarsi a una prima lettura come antitetici, ma si deve tener
presente che Newton li considera complementari, nel senso che per vie
diverse giungono allo stesso risultato, la scoperta delle leggi dei fenomeni.
Infatti, tutti e due sono presentati come due diversi procedimenti
nellapplicazione delle leggi del moto. Ma un privilegio per la deduzione da
principi matematici, il tema evidenziato anche nel titolo del grande libro,
sembra potersi evidenziare dal passo seguente:
Presento questo libro come i principi matematici della filosofia perch tutto il
compito della filosofia sembra consistere in questo - dai fenomeni del moto
investigare le forze della natura e poi da queste forze dimostrare gli altri
fenomeni; a questo scopo sono rivolte le proposizioni generali del primo e
secondo libro. Nel terzo libro presento un esempio della spiegazione del
Sistema del Mondo, perch dalle proposizioni dimostrate matematicamente
nei libri precedenti, nel Terzo derivo dai fenomeni celesti le forze della
gravit ... e poi da queste forze deduco il moto dei pianeti.
4

Nel procedimento newtoniano per la ricerca delle forze gravitazionali
attraverso la loro deduzione dai fenomeni celesti, la deduzione si presenta
quindi con un ruolo privilegiato rispetto alla induzione, ma un ruolo speciale
sembra essere attribuito a una speciale deduzione, la deduzione dai
fenomeni. Considero una conferma indiretta di questa tesi il fatto che il
metodo applicato da Newton nelle argomentazioni sul celebre esperimento
del secchio, nel senso che esse si ricollegano al precedente metodo della
deduzione dai fenomeni. Lesperimento collocato allinizio dei Principia,
nello Scholium che segue le definizioni, nella parte cio destinata a
costituire lossatura concettualmente portante dellopera, con lo scopo di
distinguere il moto assoluto dal relativo, problema che di immediato
impatto sulla teoria newtoniana eliocentrica
5
. Anche il rapido esame, in
questa sede, dellesperimento ci porta a concludere che esso presenta una
situazione nella quale la rotazione relativa dellacqua rispetto al secchio non
simmetrica, a parit di moto relativo, rispetto alla rotazione del secchio

3
Newton (1729, 271).
4
Newton (1687), Prefazione alla prima edizione.
5
Newton (1687, 11). Mediante lesperimento Newton vuole mostrare che distinguere le
forze impresse o forze vere o assolute dalle forze insite o forze relative, non poi una cosa
del tutto disperata. Leffetto della rotazione assoluta la forza insita che produce la
curvatura dellacqua. Per maggiori dettagli, cfr. DAgostino (1978, 275-290).





Complessit e riduzionismo
50




rispetto allosservatore. Da questo esperimento, che Newton afferma di aver
effettivamente eseguito, egli vuol dedurre che lacqua si muove di moto
assoluto. Lasciando aperto il problema del carattere pensato o
effettivamente eseguito dellesperimento, unattenta lettura di quello che si
pu considerare come uno delle pi interessanti pagine dellopera, porta a
concludere che nellargomentazione della deduzione del moto assoluto
Newton ricorre soltanto a considerazioni di logica relazionale, nel senso che
il suo argomento si fonda sulla mancanza di simmetria nei due moti relativi.
Effettivamente, egli si limita a postulare che lasimmetria dei risultati
richiede una spiegazione, che nel contesto dei Principia, egli attribuisce agli
effetti del moto assoluto. Non una dimostrazione quindi del moto assoluto
ma una sua postulazione. Largomento esente da quelle ipotesi che
invece si richiederebbero in un possibile, ma alternativo, metodo induttivo o
deduttivo dalle ipotesi. In termini moderni, si direbbe che largomento
newtoniano procede in conseguenza di una rottura di simmetrie.
Lasimmetria rilevata da Newton lo convince a postulare il moto circolare
assoluto dellacqua
6
. Queste pagine dei Principia hanno costituito per due
secoli oggetto di controversie riguardanti o laccusa di inconsistenza della
dimostrazione newtoniana,
7
oppure le sue difese
8
. Dir in breve, che le
accuse rivolte a Newton riguardavano la sua pretesa di aver dimostrato il
moto assoluto, accuse che cadono se si accetta la tesi che il procedimento
newtoniano non una dimostrazione del moto assoluto ma una sua
postulazione.
3. Ampre e Maxwell sulla deduzione dai fenomeni
Nellambito delle considerazioni di questo articolo interessante rilevare
che il metodo Newtoniano della deduzione dai fenomeni viene privilegiato a

6
La spiegazione dellasimmetria fra moti inerziali e moti accelerati ancora oggetto del
Principio di Mach e della teoria della Relativit Generale.
7
La critica di Berkeley a Newton principalmente nel saggio: The Principles of human
knowledgell in Berkeley (1948-1957). Per quanto riguarda lesperimento del secchie,
secondo Berkeley: A riguardo di ci che si dice (nei Principia) della forza centrifuga, cio
che essa non appartiene affatto al moto relativo circolare, io non capisco come ci possa
seguire dallesperimento che si porta avanti per provare ci ...( citato lesp. del secchio).
Perch proprio al tempo in cui si dice che lacqua del secchio ha il suo maggiore moto
circolare relativo proprio allora io credo che non si muova affatto.
8
Secondo Sciama, la dimostrazione newtoniana non una spiegazione fisica del ruolo
privilegiato dei riferimenti inerziali ma unaffermazione della loro esistenza. Cfr. Sciama
(1972, 23-24).





DAgostino: Newton, Ampre, Maxwell, Einstein: sulla deduzione dei fenomeni



51




distanza di pi di cento anni da Ampre e da Maxwell. Ampre apre la sua
Thorie des phnomnes lectrodynamiques, uniquement dduite de
lexprience
9
, con unapologia di Newton. Il tempo di Newton rappresenta
nella storia della scienza quello in cui ebbe luogo la pi importante delle
scoperte fatte dalluomo sulla causa dei grandi fenomeni dalla natura, ed
anche lepoca in cui allo spirito umano si aperto un nuovo metodo nelle
scienze che hanno per oggetto lo studio di questi fenomeni. Segue la
considerazione il metodo di Newton, la deduzione dagli esperimenti, lo ha
guidato nella scoperta della legge elementare dell elettrodinamica. Nella
sua ricerca di esperimenti da cui dedurre la legge si noti la variazione
rispetto ai fenomeni newtoniani Ampre inventa forme di circuiti mobili
che siano in equilibrio sotto lazione di altri circuiti, le cosiddette bilance di
Ampre. Con una sorprendente ripresa del celebre tema newtoniano,
afferma che il metodo ha il merito di escludere per sempre le ipotesi: []
il principale vantaggio delle formule che cos si raggiungono [...] di restare
indipendente sia dalle ipotesi che possono essere servite ai loro autori
durante la ricerca, sia di quelle altre che, nel seguito, vi si sono sostituite
10
.
Si noti che il carattere formale della legge collegato al modo della sua
deduzione, ed questa che gli attribuisce requisiti di perenne validit,
prescindendo dalle particolari ipotesi fisiche esplicative, il cui carattere
aleatorio contrasterebbe la generalit: Qualunque sia la causa fisica alla
quale si vogliano riportare i fenomeni prodotti da questa azione, la formula
che io ho ottenuto rester sempre lespressione dei fatti. Insistendo su
questa interessante identificazione del formale e del fattuale puro, aggiunge:
Qualsiasi ricerca sulle cause non cambier per niente i risultati del mio
lavoro, perch, per accordarsi con i fatti, lipotesi adottata deve sempre
accordarsi con le formule che cos completamente le rappresentano
11
.
Senza nulla togliere ai grandi contributi di Ampre all elettrodinamica,
lodati dallo stesso Maxwell, lo storico deve constatare che la stessa scelta a
favore del formalismo matematico che lo aveva guidato ai grandi successi,
rappresent per lo scienziato francese un impedimento per la scoperta della
propagazione delle forze elettriche, teoria che pure egli riteneva del pi
grande interesse per il progresso della scienza. Cos infatti egli deplora la
matematica troppo vaga delletere: [] in assenza di una conoscenza
matematica degli effetti dei movimenti dei fluidi, [...] le considerazioni

9
Ampre (1826).
10
Ampre (1826, 10).
11
Ampre (1826, 8).





Complessit e riduzionismo
52




sulletere [...] sono troppo vaghe per servire di base ad una legge la cui
esattezza possa essere provata con delle esperienze dirette e precise
12
.
Sappiamo che ci sarebbe voluto un Faraday, qualche tempo dopo e in
una differente cultura, quella dell Inghilterra di met ottocento, per
proporre una ardita concezione del mezzo, anche se la matematica non
riusciva, per il momento, a trovarvi posto. In seguito le idee di Faraday
sarebbero riuscite a provocare i grandi matematici suoi contemporanei
William Thomson e James Clerk Maxwell, che nella matematica dei mezzi
continui trovarono il modo di esprimere la concezione fisica della priorit
delle forze nel mezzo attorno al filo conduttore e della loro diffusione nello
spazio. Ma con unoriginale sintesi fra empirismo e deduttivismo anche
Maxwell elogia il metodo della deduzione dai fenomeni:
[] il vero metodo del ragionamento fisico quello di iniziare con i
fenomeni e attraverso unapplicazione diretta delle equazioni del moto
dedurne le forze [...] il calcolo del moto quando sono note le forze, oltre che
essere pi difficile, non cos importante ne cos facile per essere applicato ai
metodi analitici della scienza fisica.
13

Nessun miglior commento a questa fondamentale posizione maxwelliana
che la considerazione del procedimento mediante il quale lo scienziato
scozzese capovolge il metodo seguito da Hermann Helmholtz e da William
Thomson per derivare la legge dellinduzione elettromagnetica scoperta da
Faraday. Helmholtz nel 1847, e un anno dopo Thomson, avevano dedotto la
legge dalle azioni meccaniche esercitate dai circuiti, ma Maxwell segue la
strada inversa, deducendo lazione meccanica dal fenomeno dinduzione
14
.
Secondo lo scienziato scozzese, infatti, i procedimenti di Thomson ed
Helmholtz, ipotizzando che tutta lenergia in gioco fosse quella meccanica
dei circuiti elettrici (forza x spostamento), introducevano in partenza ipotesi
meccaniche troppo restrittive, inficiando cos la stessa generalit del metodo
deduttivo. Oggi comprendiamo che il potere euristico del metodo di
Maxwell legato al procedimento di correlare lenergia del sistema
elettromagnetico non pi al lavoro meccanico esterno, ma al lavoro delle
forze interne di campo, rappresentate dal potenziale vettore, rifacendosi
quindi a unespressione di una energia pi generale di quella meccanica,
lenergia elettromagnetica, un concetto fondamentale della maxwelliana
teoria di campo.

12
Blondel (1989, 133).
13
Maxwell (1876, 208-209).
14
Maxwell (1996, 9-10).





DAgostino: Newton, Ampre, Maxwell, Einstein: sulla deduzione dei fenomeni



53




4. Einstein: la fisica dei principi contrapposta alla deduzione dai
fenomeni
In un passaggio della Spenser Lecture, Albert Einstein esprime la
convinzione che il pensiero puro ha la potenza di dominare la realt:
Ora, stabilito che il fondamento assiomatico della fisica teorica non
deducibile dallesperienza, ma viceversa creato liberamente dallintelletto,
sussiste la speranza di trovare la strada giusta ? La mia risposta che, a
mio avviso, la strada giusta esiste e che possibile trovarla io sono
convinto che per mezzo di costruzioni puramente matematiche possibile
scoprire quei concetti che ci danno la chiave nella matematica che
risiede il principio creatore. Io sono portato a credere nella capacit, in certo
senso, del pensiero puro a dominare la realt, proprio come pensavano gli
antichi.
15

In altre parti dei suoi scritti epistemologici notiamo che Einstein elogia i
metodi empirici. Valga in questa sede, fra i tanti possibili riferimenti, una
lettera allamico Besso, nel quale il grande fisico teorico rivaluta I
fondamenti empirici delle geometria di Riemann:
Le tue osservazioni al riguardo del ruolo dellesperienza e della speculazione
mi sono molto piaciute. Vorrei soltanto aggiungere che non ammissibile
considerare i risultati di Riemann come pure speculazioni. Il contributo di
Gauss di aver formulato le leggi dello spostamento di piccole sbarrette
rigide su una data superficie, i suoi ds sono la piccola sbarretta, senza questa
rappresentazione concreta tutta il ragionamento sarebbe rimasto impossibile.
La generalizzazione a uno spazio a n dimensioni fatta da Riemann , senza
dubbio, un fatto puramente speculativo, ma riposa anchessa sulla concezione
gaussiana della sbarretta etalon. Dimenticando lorigine terrestre del ds2 i
successori non hanno certamente compiuto un progresso. Nel suo bel libro
Weyl chiama a ragione la teoria di Riemann la geodesia delle costruzioni
pluridimensionali.
16

Si noti il sorpreso commento di Pais che aveva sopravvalutato
latteggiamento empirico di Einstein: non riesco a credere che questo fosse
lo stesso Einstein che nel 1917 aveva messo in guardia Felix Klein dal
sopravvalutare la portata dei punti di vista formali, che falliscono quasi
sempre come strumenti euristici
17
. Si deve cos riconoscere che la filosofia
di Einstein, specie negli scritti della maturit, si muove attorno a una
irrisolta problematica: lesigenza che una base empirico-strumentale debba

15
Einstein (1933).
16
Einstein A., Besso M., (1972, 138).
17
Pais (1986, 372).





Complessit e riduzionismo
54




porsi a fondamento delle teorie si contrappone alla convinzione della
potenza del pensiero puro di dominare la realt. Egli stesso riconobbe il
problema in risposta a una provocazione di Margenau: Margenau: La
posizione di Einstein contiene caratteristiche di razionalismo e di
estremo empirismo . Risposta di Einstein:
Questo corretto. Ma da dove deriva questa fluttuazione? (Da una parte) la
fisica come sistema logico-concettuale trova un pericoloso ostacolo
nellarbitrariet di questa scelta. Quindi il fisico cerca di connettere il pi
possibile i suoi concetti con il mondo empirico. Qualche volta ci riesce, ma
sempre esposto al dubbio che questa connessione dipenda a sua volta
dallintero sistema. [] Quindi egli diventa ancor pi razionalista
riconoscendo lindipendenza logica del sistema, ma cos rischia di perdere
contatto con il mondo empirico. Un ondeggiare fra questi due estremi mi
sembra inevitabile
18
.
5. Conclusioni
In questo lavoro ho messo in evidenza che nelle riflessioni metodologiche di
grandi scienziati si nota una differenza, se non una contraddizione, fra due
metodi di ricerca caratterizzati come scienza dei principi e deduzione dai
fenomeni. noto che la scienza dei principi ha avuto una millenaria storia
nel pensiero occidentale, a cominciare dalla geometria di Euclide, con il
seguito dei Principia newtoniani e delle generalizzazioni non-euclidee della
geometria. Non stato facile resistere alla sua estremizzazione, come al
fascino delle capacit del pensiero puro di afferrare la realt, a cui lo stesso
Einstein non si era sottratto. Ma si farebbe un torto alla realt storica della
scienza ignorando o sottovalutando laltra esigenza, da me qui sottolineata,
di un rifugio nella realt fenomenica, lodato per la sua pregevoli
caratteristica di evitare ipotesi non giustificate (Newton), di risalire alla
forma matematica delle leggi (Ampre), di mantenere un giusto equilibrio
fra concezioni fisiche -i modelli con i quali Maxwell aveva costruito le sue
equazioni e le teorie matematiche. Ho notato che il metodo si sviluppa con
lelaborazione di propriet di simmetria dei fenomeni, come nel caso di
Newton e di Ampre. Da notare che il metodo delle simmetrie aleatorio,
nel senso che ogni simmetria si riferisce a casi particolari, o, ugualmente ,
ogni modello ha una valenza limitata spazialmente e temporalmente. Il
metodo quindi difficilmente riconducibile a processi assiomatico-
deduttivi, per cui era giustificata la sorpresa di Poincar nel trovare

18
Einstein (1949, 679-680).





DAgostino: Newton, Ampre, Maxwell, Einstein: sulla deduzione dei fenomeni



55




nellopera di Maxwell pi che un trattato di fisica un elenco di macchine e
strumenti di officina. In questultimo caso, si tratta di accettare la
coesistenza, in un complesso rapporto interno, di ambiti riduzionistici
limitati che si pu intendere come aprire una via ai problemi della
complessit. Londeggiare fra le due vedute del metodo della scienza,
evidenziato da Einstein, se pure tollerato pragmaticamente nellavanza-
mento della ricerca, si riflette per sul livello della filosofia ponendo un
drammatico dilemma: si pu dire che nel sostenere la tesi dello a-priori
puro, Einstein rischiava di mettere in dubbio la sua adesione a Kant,
decisamente affermata, fra laltro, in un passaggio di Reply to Criticism.
notevole che il dibattito sui due metodi non sia oggi concluso, e che il
premio Nobel P. W. Anderson labbia rivitalizzato con la sua ammissione di
due vie per la ricerca, da lui titolate Bottom-up e Upper-down. La sua
manifesta preferenza per la prima alternativa, un risalire dai fenomeni
anche un dedurre da essi le leggi. La problematicit della scelta per un
aspetto delle idee e teorie della complessit che oggi hanno fatto ingresso
nelle idee di molti fisici. Ma ci non implica che lesigenza di una scienza
deduttiva, una scienza dei principia, che caratterizza secondo Einstein la sua
teoria, sia da considerare contraddittoria alla sua antagonista, una scienza
fenomenologica, su modelli matematici non necessariamente generalizza-
bili, ma accettabili, come nella tesi di Poincar
19
, pur nella loro limitata
generalizzabilit. Ponendo il problema di una scelta fra le due le
oscillazioni, Einstein ha avuto anche il grande merito di aver aperto la via al
pensiero scientifico moderno.
Riferimenti
Ampre A. M., 1826, Thorie des phnomnes lectrodynamique
uniquement dduite de lexprience, Paris.
Berkeley, G., 1948-1957, The Works of George Berkeley, Edinburgh.
Blondel, C., 1989, Vision physique thrien et mathmatisation
laplacienne: llectrodynamique dAmpre, Rev, Hist. Sc., XLII/ 1-
2.
DAgostino S., (1978), Il problema del moto assoluto e della distinzione
fra forze impresse e forze insite (inerziali) nei Mathematical Principles
of Natural Philosophy di Isaac Newton, Giornale di Astronomia, pp.
275-290.

19
Poincar (1900).





Complessit e riduzionismo
56




DAgostino, S., 1991, Einstein e Kant: la teoria fisica contro il logico ma
vuoto schema dei concetti in: Petruccioli S, (a cura di) Immagini,
Linguaggi, Concetti, Theoria Roma, pp. 197-220.
DAgostino, S., 1990, Matematica ed Elettrodinamica nellopera di
Ampre Lo sviluppo delle teorie dellelettromagnetismo, Cultura e
Scuola, n.116, Ott-Dic. pp. 261-271.
DAgostino, S., 1989, Fisica e Filosofia in James Clerk Maxwell, Nuova
Civilt delle Macchine, vol 26 N.2, pp. 83-91.
DAgostino, S., 1995, Einsteins Life-Long Doubts in the Physical
Foundations of the General Relativity and Unified Field Theories in:
Garola C, and Rossi A. (Eds), The Foundations of Quantum
Mechanics-Historical Analysis and Open Questions, Kluwer
Academic Publishers 1995, pp.167-178.
Einstein, A., 1933, On the Method of Theoretical Physics, The Herbert
Spencer Lecture delivered at Oxford, June 10, 1933, Oxford
Clarendon Press 15 1933; ristampa in Philosoph. of Science, vol.1,
1934, pp. 162-169.
Einstein, A., 1949, Reply to Criticism in: Albert Einstein Philosopher
Scientist, Harpers and Brothers Pbl, N.Y., Vol. 2, pp. 665-688.
Einstein A., Besso M., 1972, Correspondence 1903-1955, trad. di Pierre
Speziali con note e introduzione, Hermann Paris.
Maxwell J. C., 1876, On the Proof of the Equations of Motion of a
connected System, in The Scientific Papers of James Clerk Maxwell,
Edited by W. B. Niven, Dover publications, N.Y.
Maxwell, J.C., 1996, Una teoria dinamica del campo elettromagnetico,
traduzione italiana dalloriginale: Maxwell J.C, A Dynamical Theory
of the Electromagnetic Field, a cura di DAgostino S., Edizioni
Teknos, pp. 1-107.
Pais, H., 1986, Sottile il Signore. La Scienza e la Vita di Albert Einstein,
Boringhieri, Torino.
Poincar, H., 1900, Electricit et Optique, Carr et Noud, Paris.
Rossi A., 2006, Mathematical Models and Physical Reality from Classical
to Quantum Physics, in: Garola G., .Rossi A., Sozzo S. (Eds) The
Foundations of Quantum Mechanics-Historical Analysis and Open
Questions, Cesena 2004, World Scientific, London-Singapore 2006,
pp. 293-300.
Sciama, T. W,1972, La relativit generale, Bologna, Zanichelli.
Vizgin V., 1986, Einstein, Hilbert, and Weyl: the Genesis of the General
Relativity in Howard D., Stachel .J. (Edits) Einstein and the History





DAgostino: Newton, Ampre, Maxwell, Einstein: sulla deduzione dei fenomeni



57




of General Relativity, Einstein Studies, Vol. 1, Birkhuser 1986, pp.
300-314.






2012 Pierluigi Graziani
Elementare ma complessa: la prospettiva della complessit computazionale attraverso il
caso studio della geometria di Tarski, in Complessit e riduzionismo, pp. 57-72
Published by Isonomia, Rivista online di Filosofia Epistemologica ISSN 2037-4348
Universit degli Studi di Urbino Carlo Bo
http://isonomia.uniurb.it/epistemologica

59




Elementare ma complessa:
la prospettiva della complessit computazionale
attraverso il caso studio della geometria di Tarski
Pierluigi Graziani
Universit degli Studi di Urbino Carlo Bo
pierluigi.graziani@uniurb.it
Sul finire degli anni venti dello scorso secolo, nei suoi corsi allUniversit di
Varsavia, Alfred Tarski elabor un sistema di assiomi per la geometria
elementare (lo indicheremo con
2
GE
T ) che present, con diverse semplifica-
vzioni ed aggiunte, nei lavori The completeness of elementary algebra and
geometry del 1940 (ma pubblicato solo nel 1967), A decision method for
elementary algebra and geometry del 1948 e What is elementary geometry?
del 1959
1
.
Il sistema elaborato da Tarski per molte ragioni differente da quello
hilbertiano
2
e da altre assiomatizzazioni storicamente presentate
3
. Tale
sistema, infatti, descrive un universo contenente solo punti e due relazioni
tra elementi primitivi: quella di essere tra e quella di equidistanza. Tale
scelta caratterizza una visione della geometria in cui le linee e i piani sono
insiemi di punti e rende pi facile il confronto con lapproccio algebrico in
cui tutte le figure sono appunto viste come luoghi di punti, insiemi definibili
di punti (nel piano, insiemi di coppie di numeri). Tuttavia, quella di Tarski
unassiomatizzazione per la geometria elementare euclidea ovvero per
quella parte della geometria euclidea non basata su nozioni insiemistiche e

1
Per unanalisi storica dellassiomatizzazione tarskiana si veda larticolo di Alfred Tarski e
Steven Givant (1999).
2
Hilbert (2009).
3
Vedi Graziani (2001).





Complessit e riduzionismo
60




che pu essere sviluppata in un linguaggio in cui non si suppone come nel
linguaggio della geometria hilbertiana di poter quantificare sui numeri
naturali o su insiemi qualunque di punti
4
. Dunque, tutte le variabili x,y,z,
che occorrono in questa teoria sono assunte variare sopra elementi (punti) di
un insieme fissato (spazio). Le costanti logiche della teoria sono i connettivi
, , , , , , e lo speciale predicato binario =, mentre come costanti non
logiche o simboli primitivi della teoria abbiamo il predicato ternario usato
per denotare la relazione di essere tra ed il predicato quaternario usato
per denotare la relazione di equidistanza. Leggeremo, dunque, la formula
( ) xyz come y giace tra x e z (senza escludere il caso in cui y coincide con x
o z); e la formula ( ) , , , x y z u come x distante da y come z da u, vale a dire
il segmento xy congruo al segmento zu .
Diamo dunque gli assiomi del sistema tarskiano, considerando per
semplicit, lassiomatizzazione per la geometria elementare del piano
presentata in What is elementary geometry?.
5

A1 (Assioma di identit per la relazione )
( ) ( ) xy xyx x y = (


A2 (Assioma di transitivit per la relazione )
( ) ( ) ( ) xyzu xyu yzu xyz (


A3 (Assioma di connessione per )

4
In
2
GE
T non possiamo avere enunciati del tipo per ogni poligono, ma solo enunciati che
riguardano poligoni con un numero fissato di vertici. Per avere, infatti, enunciati del tipo
per ogni poligono si dovrebbe arricchire il linguaggio di
2
GE
T con nuove variabili X,Y,
varianti su insiemi finiti di punti. Ci consentirebbe di avere simboli per denotare figure
geometriche (insiemi di punti), classi di figure geometriche etc. Lassioma di continuit,
che daremo tra breve, stabilisce lesistenza su di una retta r di un minimo confine superiore
per ogni insieme X definibile, non per insiemi arbitrari, dove dire che X definibile
significa che esiste una formula
1
( , ,..., )
n
x y y ed individui
1
,...,
n
b b per cui in ogni
modello A, [ ] { }
1
: , ,...,
k
a a b b X = A A . Dai risultati di Tarski segue che in questa
teoria non sono definibili i numeri naturali, altrimenti, via Teorema di Gdel, essa sarebbe
incompleta.
5
possibile estendere i risultati tarskiani per la geometria bidimensionale al caso di
geometrie n dimensionali per un intero positivo n, modificando gli assiomi A11 e A12. Per
maggiori delucidazioni su tali argomenti si veda larticolo di Tarski e Givant (1999).





Graziani: Elementare ma complessa



61




( ) ( ) ( ) ( ) ( ) xyzu xyz xyu x y xzu xuz (


A4 (Assioma di riflessivit per )
( ) xy xyyx (


A5 (Assioma di identit per )
( ) ( ) xyz xyzz x y = (


A6 (Assioma di transitivit per )
( ) ( ) ( ) xyzuvw xyzu xyvw zuvw (


A7 (Assioma di Pasch)


A8 (Assioma di Euclide)
( ) ( ) ( ) ( ) ( ) ( ) txyzu vw xut yuz x y xzv xyw vtw (


A9 (Assioma dei cinque segmenti)
( ) ( ) ( ) ( )
( ) ( ) ( ) ( )
[
]
xx yy zz uu xyx y yzy z xux u yuy u
xyz x y z x y zuz u





A10 (Assioma di costruzione per segmenti)
( ) ( ) xyuv z xyz yzuv (


A11 (Assioma inferiore di dimensionalit)
( ) ( ) ( ) xyz xyz yzx zxy (


A12 (Assioma superiore di dimensionalit)
( ) ( ) ( ) ( ) ( ) ( ) ( ) xyzuv xuxv yuyv zuzv u v xyz yzx zxy (


A13 (Assiomi elementari di continuit)
Tutti gli enunciati della forma
( ) ( ) { }
... vw z xy zxy u xy xuy ( (


( ) ( ) ( ) ( ) txyzu v xtu yuz xvy ztv (






Complessit e riduzionismo
62




dove sta per una formula nella quale le variabili x,v,w,, ma n y, n z,
n u, occorrono libere, e similmente per , con x ed y interscambiati.
In generale come in Hilbert - lassioma di continuit un enunciato non
elementare poich contiene variabili del secondo ordine che variano su
insiemi arbitrari di punti (in aggiunta a variabili del primo ordine che
variano su punti), ovvero lassioma di continuit pu essere formulato come
( ) ( ) { }
XY z xy x X y Y zxy u xy x X y Y xuy ( (


e asserisce che due insiemi X e Y tali che gli elementi di X precedono gli
elementi di Y rispetto ad un punto a (cio ( ) zxy ogni qual volta x in X e y
in Y) sono separati da un punto u. Tarski sostitu questo assioma con A13,
ovvero con una collezione infinita di assiomi elementari di continuit che ci
danno la completezza di Dedekind solo per insiemi definibili. Dal punto di
vista analitico, come Tarski dimostra, ci significa che i modelli di
2
GE
T
saranno isomorfi a spazi cartesiani su campi che non necessariamente
coincidono con , ma con quelli che sono noti come campi reali chiusi.
Torneremo pi avanti su questo punto.
Come noto, limportanza del sistema tarskiano risiede anche e
soprattutto nel fatto che per esso possibile dimostrare la coerenza, la
completezza e la decidibilit.
Intuitivamente, lidea di Tarski quella, dimostrata la coerenza,
completezza e decidibilit della teoria dei campi reali chiusi (
CRCO
T ), di
interpretare
2
GE
T in
CRCO
T provando la trasferibilit dei risultati di coerenza,
completezza e decidibilit da
CRCO
T a
2
GE
T . In generale, dimostrando che
CRCO
T ha leliminazione dei quantificatori
6
Tarski dimostra la decidibilit
dei campi reali chiusi. Per il fatto poi che: se
CRCO
T ha leliminazione dei
quantificatori allora model-completa e se model-completa avendo un
modello primo (un modello cio che sottostruttura elementare di ogni
modello) allora completa, Tarski dimostra anche la completezza di
CRCO
T .

6
Per chiarezza ricordiamo che una formula equivalente alla formula nella teoria T
se
T
e che T quindi ammette leliminazione dei quantificatori se ogni formula di T
equivalente in T ad una formula aperta. Per una introduzione alla Teoria dei Modelli si
veda Hodges (1993); Keisler (1977). Per unintroduzione alla decidibilit si veda Rabin
(1977). Si veda anche Renegar (1992).





Graziani: Elementare ma complessa



63




La coerenza discende immediatamente dalla esistenza di un modello di
CRCO
T .
7

Pi in dettaglio, per poter interpretare
2
GE
T in
CRCO
T provando la
trasferibilit dei risultati di coerenza, completezza e decidibilit da
CRCO
T a
2
GE
T , il primo passo da fare risolvere il cosiddetto problema di
rappresentazione per
2
GE
T che consiste nel caratterizzare tutti i modelli di
2
GE
T , M,B,D =< > M tali che:
(i) M un insieme non vuoto;
(ii) B e D sono, rispettivamente, una relazione ternaria e quaternaria su M;
(iii) Tutti gli assiomi di
2
GE
T valgono in M se tutte le variabili sono assunte
variare su elementi di M e le costanti e denotano,
rispettivamente, le relazioni B e D.

7
Senza per ricorrere, come fa Tarski, al teorema di Sturm (si vedano, oltre ai lavori di
Tarski: Jacobson 1985, vol. I, cap. 5; Prestel 1984), per dimostrare che
CRCO
T ha
leliminazione dei quantificatori, necessario e sufficiente, come mostrato da Shoenfield
(1967), provare che essa soddisfa le due condizioni seguenti:
Condizione dellisomorfismo: per ogni due modelli A ed

A di
CRCO
T e ogni
isomorfismo di una sottostruttura di A e una sottostruttura di

A , esiste unestensione
di che un isomorfismo di un sottomodello di A ed un sottomodello di

A ;
Condizione del sottomodello: per ogni modello B di
CRCO
T , ogni sottomodello

B di B
e ogni formula chiusa semplicemente esistenziale di

B
L abbiamo

B B .
Dimostrato che
CRCO
T soddisfa le due condizioni precedenti, possibile dimostrare la
model-completezza di
CRCO
T . Poich dimostrabile che se una teoria model-completa
ed ha un modello primo allora completa,
CRCO
T anche completa. La decidibilit di
CRCO
T scende dal fatto che la teoria completa e assiomatizzata o dal fatto che la teoria dei
campi ordinati reali chiusi ha leliminazione dei quantificatori. Attraverso leliminazione
dei quantificatori, infatti, trasformiamo un dato enunciato di T in un altro enunciato
di T tale che T e appartiene ad un insieme K di enunciati per i membri del
quale possiamo in un numero finito di passi determinare se sono teoremi di T o no.





Complessit e riduzionismo
64




Come evidenziato, i pi familiari modelli di
2
GE
T sono certamente gli spazi
cartesiani bidimensionali (che indicheremo con C
2
F
) su particolari campi
ordinati F, , , , , 0,1 =< + > F (dove F appunto un insieme non vuoto) che
soddisfano il teorema di Bolzano ristretto alle funzioni polinomiali. Sono
questi i campi reali chiusi.
Tarski riesce a dimostrare che tutti e soli i modelli di
2
GE
T sono isomorfi a
spazi cartesiani di questo tipo dove lassioma elementare di continuit
corrisponde alla propriet di Bolzano per i polinomi:
Teorema di Rappresentazione
Affinch M sia un modello di
2
GE
T necessario e sufficiente che M sia
isomorfo allo spazio cartesiano su un campo reale chiuso C

2
F
.
Risolto il problema della rappresentazione possibile per Traski passare al
problema della completezza e decidibilit di
2
GE
T . Come anticipato,
sfruttando il teorema di Sturm, Tarski pu dimostrare che in
CRCO
T ogni
formula equivalente a una priva di quantificatori e provare che
CRCO
T
completa e decidibile. Il lavoro quello di trasportare queste propriet da
CRCO
T a
2
GE
T . Per comodit tipografica invece di scrivere C
2
F
scriveremo U e
consideriamo
CRCO
T U , a partire da U per il linguaggio formale L
possiamo, dunque, come si visto, costruire una struttura
, , M D B =< >
U U U
U
M M M
M , per il linguaggio formale

L , che sia modello di


2
GE
T ed il modo in cui abbiamo costruito M
U
da U ha come correlato
sintattico la definizione di una traduzione di
2
GE
T in
CRCO
T .
Possiamo, infatti, associare ad ogni formula di

L una formula di L
tale che
[ ]
1 1
...
n n
a a a a U sse
1 1
...
n n
a a a a (

M
U

8


8
Dove ha 2n variabili libere, se ne ha n. Conveniamo per ogni variabile x di

L di
scegliere due variabili , x x di L: intuitivamente ci significa che mentre in

L parliamo
di punti ,
j j
a a < >, in L parliamo di coordinate
j
a e
j
a . Vedi Tarski e Givant 1999,
201, per una descrizione intuitiva.





Graziani: Elementare ma complessa



65




definendo una traduzione
: Form Form


L
L

ponendo, ove si supponga , ' x x x =< > e , ' y y y =< >, che per le formule
atomiche:
( ) ( ) x y x y x y = = = =
( ) ( ) ( ) ( )
2 2 2 2
( ( , , , )) D x y z w x y x y z w z w = + = +
( ( , , )) [( ) ( ) ( ) ( )] [0 ( ) ( )] [0 ( ) ( )] B x y z x y y z x y y z x y y z x y y z = =


Figura 1. La definizione di equidistanza nel piano cartesiano






Complessit e riduzionismo
66





Figura 2. La definizione di essere tra nel piano cartesiano.

e supponendola letterale per le altre formule:
( )
( )
( )
( )
( )
( )
x x
x x






=
=
=
=
=
=

Sia ora = .
Posto ci possibile dimostrare il seguente Teorema di Interpretazione:
Per ogni enunciato di

L ,
2
GE CRCO
T T
Dimostrato il teorema di interpretazione
9
disponiamo di una traduzione di

L in L per cui vale


2
GE CRCO
T T , ovvero disponiamo di una

9
Ogni traduzione di

L in L per cui valga


2
GE CRCO
T T sar chiamata
interpretazione di
2
GE
T in
CRCO
T .





Graziani: Elementare ma complessa



67




interpretazione di
2
GE
T in
CRCO
T . Ci ci consente di dimostrare la coerenza di
2
GE
T , ma non ancora di trasferire i risultati di completezza e decidibilit da
CRCO
T a
2
GE
T .
Per poter trasferire la completezza e la decidibilit da
CRCO
T a
2
GE
T
necessario non solo che la nostra traduzione sia una interpretazione, ma
anche che la nostra interpretazione sia fedele ovvero che valga il seguente
teorema:
Teorema di fedelt dellinterpretazione
2
GE CRCO
T T
la cui dimostrazione utilizza il teorema di rappresentazione ed il teorema di
interpretazione.
Posto che la traduzione uninterpretazione fedele, possibile
provare la trasferibilit dei risultati di completezza e decidibilit da
CRCO
T a
2
GE
T . La decidibilit ovvia tenuto conto dellassiomatizzabilit - una
volta provata la completezza. Per avere la completezza, posta la coerenza di
2
GE
T , si supponga
2
GE
T , dove un enunciato di

L , allora si deve
provare che
2
GE
T . Per la fedelt si ha che
CRCO
T e, poich
CRCO
T
completa,
CRCO
T . Per definizione
( )

= , cos
( )

CRCO
T e
poich fedele
2
GE
T .
Sebbene i risultati di coerenza e di completezza siano gi di grande
rilievo per un sistema assiomatico, linteresse per il sistema tarskiano deriva
soprattutto dalla possibilit di poter dimostrare per esso anche la propriet di
decidibilit che, dopo la famosa conferenza di Parigi di Hilbert, era divenuto
uno dei problemi di maggiore interesse e indagine da parte dei matematici e
logici. Fu proprio il tentativo di analizzare tale concetto che condusse a
raffinatissimi contributi non solo nel campo della teoria dei modelli, ma
anche in quello della teoria della ricorsivit
10
.
Uno dei grandi problemi degli studi fondazionale posti da Hilbert era,
infatti, la questione di decidere per ogni teoria T quali sono i suoi teoremi.
E questo il cosiddetto Entscheidungsproblem o problema della decisione.
La riflessione su tale nozione port subito in primo piano la necessit di una
chiara definizione del concetto di algoritmo di decisione o di computo
ovvero la necessit di definire, relativamente a problemi differenti, un

10
Si veda Rabin (1977).





Complessit e riduzionismo
68




complesso di istruzioni deterministiche, meccaniche e generali. Esempi noti
di tali procedure sono lalgoritmo euclideo per la ricerca del massimo
comune divisore fra due numeri naturali o lalgoritmo delle tavole di verit
mediante cui stabilire se una data formula proposizionale o no una
tautologia. Sebbene in matematica ed in logica esistano numerosi esempi di
algoritmi, limportanza della ricerca di tali procedure risiede nel fatto che
esistono altrettanti problemi noti per i quali non conosciamo un algoritmo in
grado di offrirci una soluzione, ad esempio il problema della decisione per
la logica del primo ordine (LP): data una qualunque formula scritta nel
linguaggio della logica del primo ordine, possibile decidere in un numero
finito di passi se un teorema o meno del sistema considerato? Ovvero,
considerata la classe C di tutte le formule di LP possibile dare un
algoritmo per isolare in essa una sottoclasse T costituita da tutte e sole
quelle formule che sono teoremi di LP? Ovvero possibile decidere per
ogni formula di LP se T oppure no? Un errore molto facile in cui
possibile cadere quello di pensare che tale algoritmo esista
11
e che sia
proprio rappresentato da un sistema di assiomi per LP con le sue regole di
derivazione; infatti possibile decidere per ogni formula di LP se essa o
no un assioma ed anche possibile decidere se, data una successione finita
di formule, essa una derivazione di formule in LP. Ma ci non d affatto
una risposta alla domanda dell Entscheidungsproblem. Per determinare
quando una data formula un teorema dobbiamo essere in grado di sapere
se esiste una sua dimostrazione, ci significa che dobbiamo in qualche
modo avere a che fare con il dominio infinito delle dimostrazioni. Il
carattere effettivo delle regole di derivazione e della propriet di essere
assioma ci consente di determinare, data una successione di formule, se essa
una dimostrazione, ma non di sapere se, data una formula , esiste una
successione di formule che sia una sua dimostrazione. Una semplice
riflessione ci mostra allora che per la decidibilit di una teoria sufficiente
che sia assiomatizzabile e completa. Ci che, dunque, Tarski riusc a
dimostrare per
2
GE
T che linsieme dei teoremi di
2
GE
T decidibile, cio data
una qualunque formula di

L siamo in grado in un numero finito di passi e


del tutto meccanicamente di stabilire se essa o no un teorema di
2
GE
T .
Questo discende dalla completezza di
2
GE
T e dalla sua assiomatizzabilit.
Alternativamente possiamo sfruttare la decidibilit di
CRCO
T e la traduzione

11
A. Church diede una risposta negativa al problema della decisione per la logica del primo
ordine. Vedi Church (1936a); (1936b).





Graziani: Elementare ma complessa



69




. Il risultato dimostrato da Tarski che linterpretazione
: Form Form


L
L
effettiva, ovvero dato di

L possibile, in un
numero finito di passi, determinare di L. Dato in

L si deve decidere
se
2
GE
T o no. Applicando , dopo un numero finito di passi abbiamo .
Poich
CRCO
T decidibile, dopo un numero finito di passi sappiamo se
CRCO
T o no. Per fedelt sappiamo se
2
GE
T o no.
In una certa ampia misura, come correttamente sottolinea Rabin
12
, sino
agli anni sessanta dello scorso secolo in the spirit of Hilberts Program and
of Turings analysis of computabilit, it is tacitly assumed that for a theory
T proved decidable, the question whether a given sentence is a theorem of T
is a trivial one. For one needs only to mechanically apply the decision
procedure in order to answer any such question. No creative or intelligent
thinking is required for this process. Tale prospettiva inizi a modificarsi
sotto la spinta dei lavori di Fisher, di Rabin
13
e Meyers
14
che posero
lattenzione in modo particolare sulla complessit computazionale della
soluzione di problemi di decisione
15
. Cos, la questione non era pi quella
del problema della decisione, bens la seguente: dato un algoritmo di
decisione per una teoria T, quanto tempo e spazio di memoria
16
tale
algoritmo impiega per decidere se un enunciato della teoria un suo
teorema?
In teoria della complessit computazionale si assume che siano
computazionalmente intrattabili quei compiti che richiedono risorse di
tempo e spazio di memoria (le cosiddette risorse computazionali) che

12
Rabin (1977, 599).
13
Fischer and Rabin (1974).
14
Meyer (1975).
15
Vedi anche Stockmeyer (1987). Si veda anche Papadimitriou (1994); Sipser (2005).
16
Come opportunamente sottolineato da Frixione e Palladino (2004, 381): queste due
risorse hanno un ruolo, per cos dire, asimmetrico: in un certo senso il tempo di calcolo
prioritario rispetto allo spazio di memoria, in quanto, se un calcolo richiede un certo spazio
di memoria, esso deve necessariamente richiedere un tempo che sia almeno dello stesso
ordine di grandezza. Se ad esempio un calcolo richiede uno spazio di memoria che cresce
esponenzialmente, esso deve impiegare un numero di passi di calcolo almeno esponenziale,
in quanto altrimenti non avrebbe il tempo sufficiente per operare su tutta la memoria
richiesta. Non detto per che valga il viceversa. Un calcolo pu richiedere un tempo
esponenziale anche se gli sufficiente uno spazio di memoria polinomiale. Ovviamente,
come Frixione e Palladino notano, questo vale certamente per computazioni sequenziali, nel
caso del calcolo parallelo le cose meritano analisi ulteriori.





Complessit e riduzionismo
70




crescono esponenzialmente con la lunghezza dellinput
17
; e che siano
computazionalmente trattabili quelli che richiedono risorse che crescono al
pi in modo polinomiale
18
con la lunghezza dellinput. In tale prospettiva,
come correttamente si dice, la complessit computazionale non concerne
quante risorse richiede di svolgere un determinato compito, bens quanto
aumentano le risorse richieste al crescere delle dimensioni dei dati.
Il confronto della nuova prospettiva con il lavoro tarskiano sembr da
subito fondamentale. Proprio studiando la complessit computazionale degli
algoritmi di decisione, nel 1974, Fischer e Rabin provarono in primis per
laritmetica di Presburger (dimostrata decidibile) che per ogni algoritmo di
decisione esistono enunciati di misura (numero dei simboli) n tali che
lalgoritmo richiede
2
2
n
passi per decidere ; ed in secondo luogo che
lalgoritmo tarskiano
19
per la geometria elementare inefficiente in quanto
esponenzialmente complesso: essi mostrarono, infatti, che dato un
qualunque algoritmo per la geometria euclidea elementare esistono infiniti
enunciati della teoria tali che lalgoritmo non in grado di decidere se
oppure no un teorema della teoria in meno di 2
cn
passi, dove 0 c > (c
dipende dalla codificazione usata) ed n la lunghezza dellenunciato; e
posero (senza dimostrazione) che esiste un 0 c > tale che lalgoritmo di
Tarski verificher o refuter un enunciato della geometria elementare di
lunghezza n in al pi 2
b
passi con 2
cn
b = .
Dunque, dal punto di vista della complessit computazionale, ci
significa, come evidenziato da Stockmeyer, che la usuale distinzione tra
teorie decidibili ed indecidibili viene ad offuscarsi in quanto per un essere
umano le teorie decidibili che ammettono algoritmi inefficienti equivalgono
a teorie indecidibili:
The fact that ( , ) Th R + and ( , , ) Th R + are decidible is of little use in
designing practical decision algorithms. The exponential growth of the time
required to accept ( , ) Th R + suggests that any decision procedure for this
problem will use hopelessly large amounts of time on relatively short

17
Tali lunghezze sono misurate in modo opportuno ed in maniera diversa a seconda dei
casi: nel caso in questione potremmo considerare il numero di simboli ricorrenti
nellenunciato da decidere.
18
Dunque un algoritmo considerato efficiente se esiste una funzione polinomiale P tale
che, per ogni enunciato della teoria in questione, lalgoritmo richiede un numero di passi
minori o uguale a P(n) (dove n la lunghezza dellenunciato) per decidere se lenunciato
o meno un teorema della teoria.
19
Per ulteriori dettagli storici si veda Stockmeyer (1987). Un secondo interessante caso
studio quello proposto da DAgostino (1992).





Graziani: Elementare ma complessa



71




sentences, and therefore that ( , ) Th R + is practically undecidable even thoug
it is tecnically decidable. Even though the value of c and the density of
sentences for which the theorem applies have not yet been determined well
enough to draw solid conclusions, the term practical undecidability seems
apt, since classical undecidability results are prone to similar objections. At
the very least, an exponential lower bound on the time complexity of a
problem serves as a warning not to seek a uniformly efficient decision
algorithm but either to settle for an algorithm which does not work in all
cases or to simplify the problem so that it becomes tractable.
20

Tali risultati, ovviamente, non implicano una rinuncia a lavorare sulla
geometria tarskiana dal punto di vista della dimostrazione automatica
21
,
perch in generale questo tipo di applicazioni motivato anche
dallobiettivo di verificare la validit di nuovi algoritmi.
In conclusione, la teoria della complessit computazionale non ci
insegna qualcosa di importante e di cui tener conto solo per la progettazione
di nuovi algoritmi
22
e per linformatica tout court, ma qualcosa che deve
spronarci ad una riflessione pi generale che senza dubbio raffinerebbe le
analisi di molti problemi filosofici: dalla filosofia del linguaggio alla
filosofia della matematica, dalla filosofia della fisica alla filosofia
delleconomia, dalla filosofia della mente alla filosofia della biologia
23
.
Ringraziamenti
Ringrazio Silvio Bozzi per avermi introdotto a queste tematiche negli anni
di insegnamento allUniversit di Urbino: questo testo ha un grande debito
con i suoi insegnamenti; ringrazio, inoltre, Fabio Acerbi, Giulia Giannini,
Paolo Stellari, Angelo Vistoli, Massimo Sangoi per i loro utilissimi
commenti.



20
Stockmeyer (1987, 3).
21
Vedi Quaife (1989); Narboux (2007).
22
Rabin (1974); Simon, (1995).
23
Si veda limportante lavoro di Aaronson (2012); si veda anche Cherniak (1984);
DAgostino, Mondadori (1999).





Complessit e riduzionismo
72




Riferimenti
Aaronson, S., 2012, Why Philosophers Should Care About Computational
Complexity in: B. J. Copeland, C. Posy, O. Shagrir (a cura di),
Computability: Gdel, Turing, Church and Beyond, MIT Press.
Caviness, B.F., Johnson, J.R., 1998, Quantifier Elimination and Cylindrical
Algebraic Decomposition, Texts and Monographs in Symbolic
Computation. Springer-Verlag.
Cherniak, C., 1984, Computational Complexity and the Universal
Acceptance of Logic, The Journal of Philosophy, LXXXI, n. 12, pp.
739-758.
Church, A., 1936a, An Unsolvable Problem of Elementary Number
Theory, American Journal of Mathematics, 58, pp. 345-363, e A
Correction, ivi, pp. 101-102.
Church , A., 1936b, A note on Entscheidungsproblem, The Journal of
Symbolic Logic, 1, n. 1, pp. 40-41.
DAgostino, M., 1992, Are tableaux an improvement on truth-tables? Cut-
free proofs and bivalence, Journal of Logic, Language and
Information, 1, pp. 235-252.
DAgostino, M., Mondadori, M., 1999, La logica davvero analitica?,
Bollettino Filosofico del Dipartimento di Filosofia dellUniversit
della Calabria, 15, pp. 283-306. Reperibile presso:
www.rescogitans.it/download.php?attachment_id=457
Doner, J., Hodges, W., 1988, Alfred Tarski and Decidible Theories, The
Journal of Symbolic Logic, 53, n. 1, pp. 20-35.
Fischer, M.J., Rabin, M.O., 1974, Super-exponential complexity of
Pressburger arithmetic, Complexity of Computation (AMS-SIAM
Proceedings), pp. 7-41, 1974.
Frixione, M., Palladino, D., 2004, Funzioni, Macchine, Algoritmi.
Introduzione alla Teoria della Computabilit, Carocci, Roma.
Graziani, P., 2001, Analisi e Sintesi in Geometria. La Prospettiva della
Teoria Intuizionista dei Tipi, Universit degli Studi di Urbino.
Hilbert, D., 2009, Fondamenti della geometria, Franco Angeli, Milano.
Hodges, W., 1993, Model Theory, Cambridge University Press, Cambridge.
Jacobson, N., 1985, Basic Algebra, 2 vols., W. H. Freeman and Company,
New York.
Keisler, H.J., 1977, Fundamentals of model theory in Handbook of
Mathematical Logic, J. Barwise (a cura di), North Holland Publishing
Company, Amsterdam, pp. 47-103.





Graziani: Elementare ma complessa



73




Meyer, A.R., 1974, The inherent complexity of theories of ordered sets,
Proceedings of the International Congress of Mathematics, Canadian
Mathematical Congress, Vancouver, pp. 477-482.
Narboux, J., 2007, Mechanical Theorem Proving in Tarskis Geometry in
Automated Deduction in Geometry, F. Botana and T. Recio eds.,
Springer-Verlag, Berlin-Heidelberg, pp.139-156.
Papadimitriou, C.H., 1994, Computational Complexity, Addison-Wesley.
Prestel, A., 1984, Lectures on Formally Real Fields, Springer-Verlag.
Quaife, A., 1989, Automated Development of Tarskis Geometry,
Journal of Automated Reasoning, 5, pp. 97-118.
Rabin, M.O., 1974, Theoretical Impediments to Artificial Intelligence in:
Rosenfeld J. L. (a cura di) Information Processing 74: Proceedings of
IFIP Congress 74, North-Holland, Amsterdam, pp. 615-619.
Rabin, M.O., 1977, Decidable Theories in Handbook of Mathematical
Logic, J. Barwise (a cura di), North Holland Publishing Company, pp.
595-629.
Renegar, J., 1992, On the Computational Complexity and Geometry of the
First-order Theory of the Reals, Part I: Introduction. Preliminaries.
The Geometry of Semi-algebraic Sets. The Decision Problem for the
Existential Theory of the Reals, Journal of Symbolic Computation,
13, pp. 255-299.
Renegar, J., 1992, On the Computational Complexity and Geometry o the
First-order Theory of the Reals. Part II: The General Decision
Problem. Preliminaries for Quantifier Elimination, Journal of
Symbolic Computation, 13, pp. 301-327.
Renegar, J., 1992, On the Computational Complexity and Geometry of the
First-order Theory of the Reals. Part III: Quantifier Elimination,
Journal of Symbolic Computation, 13, pp. 329-352.
Shoenfield, J.R., 1967, Mathematical Logic, Addison-Wesley, Reading
(Mass.).
Simon, H.A., 1995, Artificial Intelligence: an empirical science, Artificial
Intelligence, 77, pp. 95-127.
Stockmeyer, L., 1987, Classifing the Computational Complexity of
Problems, The Journal of Symbolic Logic, 52, N. 1, pp. 1-43.
Sipser, M., 2005, Introduction to the Theory of Computation (second
Edition), Course Technology.
Szczerba, L.W., 1986, Tarski and geometry, The Journal of Symbolic
Logic, 51, N. 4, pp. 907-912.





Complessit e riduzionismo
74




Tarski, A., 1951, A Decision Method for Elementary Algebra and Geometry,
second edition, Berkeley and Los Angeles, University of California
Press.
Tarski, A., 1959, What is Elementary Geometry? in: The Axiomatic
Method, with Special Reference to Geometry and Physics, L. Henkin,
P. Suppes, and A. Tarski eds., amsterdam, North Holland.
Tarski, A., Givant, S., 1999, Tarskis System of Geometry, The Journal
of Symbolic Logic, 5, n. 2, pp. 175-214.
Van Den Dries, L., 1988, Alfred Tarskis Elimination Theory for Real
Closed Fields, The Journal of Symbolic Logic, 53, n. 1, pp. 7-19.








2012 Arcangelo Rossi
Dai modelli riduzionistici della realt fisica nella scienza classica alla complessit nella
scienza moderna, in Complessit e riduzionismo, pp. 73-89
Published by Isonomia, Rivista online di Filosofia Epistemologica ISSN 2037-4348
Universit degli Studi di Urbino Carlo Bo
http://isonomia.uniurb.it/epistemologica

75




Dai modelli riduzionistici
della realt fisica nella scienza classica
alla complessit nella scienza contemporanea
Arcangelo Rossi
Universit del Salento
arcangelo.rossi@le.infn.it
Anacronisticamente, lillustre storico e filosofo neokantiano Ernst Cassirer
attribuiva gi alle origini della scienza moderna, in particolare a Galileo, la
piena transizione da unaccezione sostantiva ed esplicativa dei modelli usati
dagli scienziati ad una (da lui assunta come propriamente scientifica)
formale e funzionale
1
. Questa, rispondendo a domande relative al come e
non al perch dei fenomeni, riguarderebbe solo la descrizione dei
comportamenti e delle relazioni quantitative tra gli stessi, senza fornire
alcuna interpretazione relativa alla natura degli enti in gioco e alle loro
relazioni causali, qualitative e sostanziali. Gi con Galileo, per Cassirer, si
attuerebbe cio in pieno il passaggio dalla sostanza alla funzione nella
scienza, come testimonierebbe, nel Dialogo dei Massimi Sistemi in
particolare, la sua rinuncia a cercare la causa della gravit per limitarsi a
cercarne invece i sintomi e gli effetti in termini sperimentali e quantitativi,
prediligendo in sostanza la cinematica alla dinamica, i fenomeni alle
spiegazioni
2
.
Sarebbe tuttavia sbagliato ritenere che Galileo, nel cercare relazioni
funzionali tra parametri empirici del moto, ad esempio, di caduta dei gravi,
rinunciasse alla loro spiegazione causale, considerando egli comunque le

1
Cassirer (1973).
2
Galilei (1998, 253-254).





Complessit e riduzionismo
76




leggi matematiche espressioni di qualit sostanziali, non solo empiriche e
formali. Per lui infatti le relazioni funzionali erano non semplici espressioni
di percezioni empiriche, ma frutto di astrazione e selezione, trattandosi di
enti ideali, le cosiddette qualit primarie matematizzate che dovrebbero
spiegare le stesse propriet empiriche come risultato dellinterazione di
quelle qualit primarie con i nostri organi di senso (cfr. Il saggiatore)
3
.
Infatti le qualit primarie, espresse in linguaggio matematico, sarebbero
comprensibili in termini geometrici intuitivi e meccanici, quindi causali, pur
in assenza di una spiegazione completa della realt fisica. Non vi cio in
Galileo ancora una distinzione tra modelli formali e funzionali e modelli
sostantivi, trattandosi sempre di modelli matematizzati pi o meno parziali e
pi o meno in grado di farci conoscere la realt. Lunica possibilit di
sviluppo ulteriore della conoscenza consisteva per lui nellestendere
ulteriormente la portata dei modelli, insieme matematici e meccanici,
comunque perfetti pur nella loro parzialit.
Nel metodo galileiano e nella sua ispirazione realista in termini di
modelli sostantivi, sia pur sempre espressi in linguaggio matematico
formale, vi comunque un aspetto che impedisce di attribuire a Galileo una
concezione puramente funzionalista dei modelli e che consiste nella
profonda convinzione di Galileo stesso che la conoscenza umana sia
intensive, cio in riferimento alla sua esattezza nel conoscere particolari
affezioni o propriet fisiche matematicamente, tanto esatta quanto la
conoscenza divina, anche se non certo confrontabile extensive con essa,
nel senso che le conosca tutte, conoscendone essa sempre solo alcune
4
.
Come noto, Cartesio critic Galileo per aver costruito senza
fondamenti, per essersi limitato a poche affezioni accessibili e non aver
cercato di conoscerle tutte attraverso i modelli sostantivi pur da lui
utilizzati
5
. Cartesio riteneva cio, in contrasto con Galileo, di poter
conoscere gi subito integralmente le essenze universali delle cose, laddove
Galileo ammetteva che pretendere tanto tentar le essenze
6
fosse
impossibile, per limitarsi alle poche regolarit matematiche accessibili
attraverso un processo di idealizzazione a partire dallesperienza sensoriale
(in ogni caso non per mera induzione), fino a giungere a spiegazioni causali,
geometriche e meccaniche, in termini di modelli sostantivi e non solo
formali. Cartesio, assumendo come Galileo la priorit delle propriet

3
Galilei (1968, 187-188).
4
Galilei, G., Dialogo sopra i due massimi sistemi cit., p. 112.
5
Descartes, R., Lettera a Mersenne dell11 ottobre 1638 in Tutte le lettere 1619-1650, a
cura di G. Belgioioso, Bompiani, Milano 2005, pp. 878-899.
6
Galilei, G., Opere cit., vol. V, pp. 187-1188.





Rossi: Dai modelli riduzionistici della realt fisica alla complessit



77




geometriche e meccaniche come base di spiegazione dei fenomeni in
generale in termini di modelli riduzionistici, pretendeva, a differenza di
Galileo, di fornire direttamente ed esaustivamente le cause dei fenomeni
senza limitarsi a poche regolarit matematiche accessibili. Il suo obiettivo
era infatti addirittura sostituire integralmente le cause finali e qualit
essenziali aristoteliche con cause meccaniche universali, in termini di azioni
di contatto meccaniche come cause nascoste delle stesse regolarit. In realt
per queste cause erano concepite mediante immaginazione analogica e idee
di senso comune, spesso erronee nonostante la pretesa di validit
matematica, piuttosto che da calcoli e osservazioni accurate, essendo esse
matematiche e quantitative solo in linea di principio
7
.
Il passo successivo fu compiuto da Newton con nuovi modelli,
essenzialmente ma non solo di azione a distanza, che complementavano la
trattazione meccanica e geometrica dei fenomeni di Cartesio con una
dimensione qualitativa irriducibile, mettendo cos in discussione la fisica di
Cartesio che tendeva a escludere ogni elemento qualitativo dalla meccanica
e quindi, riduzionisticamente, da tutta la fisica. Newton riusciva invece a
ricavare da quella dimensione qualitativa effetti non solo spirituali e
mentali, ma anche direttamente osservabili e calcolabili. Introduceva infatti
potenze e cause dinamiche agenti anche a distanza sulla materia e
indipendenti da essa
8
. Queste forze avevano per Newton carattere
istantaneo, propagandosi impulsivamente nello spazio e nel tempo,
sensorium Dei nel cui quadro Dio ricarica la macchina del mondo, destinata
altrimenti ad arrestarsi, con sempre nuovi impulsi di potenza. Il
riduzionismo newtoniano delle forze a distanza come impulsi di potenza, ad
esempio direttamente proporzionali alle quantit di materia ed inversamente
proporzionali al quadrato delle distanze, configurava dunque le forze stesse
come direttamente agenti sulla materia e al tempo stesso come indipendenti
da essa, a produrre i fenomeni, tali comunque da non essere pi spiegabili
nei termini di Cartesio di azioni di contatto materiali tra corpi, ma
richiedenti unindipendenza dinamica, in particolare in termini di
gravitazione universale
9
.
A differenza della forza di Newton, la vis viva del suo grande rivale
Leibniz era intrinseca alla realt fisica e materiale, concepita peraltro come
continua, a differenza della materia di Newton concepita atomisticamente.
Dunque la vis viva di Leibniz era s elemento creativo, anchesso di origine

7
Descartes, R, La Diottrica e Le Meteore, in Opere scientifiche, volume secondo, a cura di
E. Lojacono, UTET, Torino 1983, pp. 175-508.
8
Koyr, A., Studi newtoniani, Einaudi, Torino 1972.
9
Koyr, A., Dal cosmo chiuso alluniverso infinito, Feltrinelli, Milano 1970.





Complessit e riduzionismo
78




divina, ma interno al mondo e conoscibile anche a priori e non solo per
esperienza, a posteriori: la monade in cui lintera realt si riflette in
continuit e conservazione delle sue propriet dinamiche
10
. Per una piena
comprensione del contrasto scientifico-filosofico tra Newton e Leibniz in
termini di diversit di concezione riduzionistica dei due grandi padri della
scienza classica, occorre considerare anche le loro diverse e perfino opposte
interpretazioni delle nozioni fondamentali del calcolo infinitesimale, cio di
quel linguaggio matematico nuovo da essi sviluppato insieme e oltre quello
geometrico e aritmetico della tradizione. Coerentemente con le loro diverse
visioni, mentre Newton concepiva il calcolo come espressione di fenomeni
fisici (ad esempio la derivata o flussione come velocit di variazione e la
derivata seconda o flussione di flussione come accelerazione), Leibniz
interpretava linfinitesimo come punto metafisico, la monade in cui si
concentra lintera realt per produrre ogni possibile grandezza. In un caso
quindi la nuova matematica era basata sullanalogia fisica e un empirismo,
espressione della libera volont di Dio, irriducibile allastratta ragione,
mentre, nellaltro, era basata su essenze metafisiche precostituite, al tempo
stesso meccaniche e quantitative e finali e qualitative
11
. Queste ultime
quindi al tempo stesso spiegavano deterministicamente e orientavano
finalisticamente lintera realt in modo ritenuto infallibile, assumendosi che
una spiegazione puramente meccanica dei fenomeni nel senso di Cartesio,
basata sulle sole collisioni per contatto, fosse insufficiente senza ricorrere ad
unanimazione universale della realt soggetta a continuit e conservazione
assolute
12
. La grande Meccanica razionale del XVIII secolo tent quindi di
fare sintesi tra evidenza empirica delle discontinuit e perdite di potenza
manifestate nello studio delle apparenze, da cui Newton aveva ricavato le
forze come elementi discontinui separati dalla materia ma direttamente attivi
su di essa, e invarianza dei processi dinamici continui suggerita da Leibniz.
Tale sintesi che unificava i fenomeni fisici discontinui in termini di principi
di continuit e conservazione, fu poi di fatto adattata da Kant al suo
criticismo nei Primi Principi Metafisici della Scienze della Natura, tentando
di dedurla dai pi generali principi della Ragion Pura
13
. Proprio allo scopo
di unificare concettualmente il molteplice dei fenomeni, la Meccanica

10
Costabel, P., Leibniz et la dynamique en 1692. Textes et commentaires, Hermann, Paris
1969.
11
Hall, A. R., Philosophers at war. The Quarrel between Newton and Leibniz, Cambridge
U. P., Cambridge 1989.
12
Drago, A., La riforma della dinamica secondo G. W. Leibniz, Hevelius Edizioni,
Benevento 2003.
13
Kant, I, Primi principi metafisici della scienza della natura, Cappelli, Bologna 1959.





Rossi: Dai modelli riduzionistici della realt fisica alla complessit



79




razionale del XVIII secolo la giustificava invece ancora in termini
ontologici leibniziani. Esempi ne sono il concetto di forza di Euler e il
principio di conservazione di dAlembert
14
.
A Euler dobbiamo la prima formulazione differenziale rigorosa del II
principio della dinamica in termine di variazioni continue come cause
ultime delle variazioni discontinue finite osservabili, variazioni dinamiche
messe in evidenza da Newton senza far ricorso al calcolo differenziale e alla
continuit di Leibniz. In effetti Euler per primo combin rigorosamente i
concetti fisici di Newton e le nozioni filosofico-matematiche del calcolo
infinitesimale di Leibniz. Il carattere invariantivo delle variazioni dinamiche
a confronto con le perdite apparenti di potenza sottolineate da Newton e per
lui compensate da acquisizioni sovrannaturali di potenza, fu inoltre
chiarificato da dAlembert, ugualmente a priori in senso riduzionistico,
interpretando le discontinuit di urti bruschi di corpi duri, chiaramente
implicate dalla meccanica a livello empirico, solo come limiti di variazioni
infinitesimali continue al livello inosservabile subiacente (cio per gradi
insensibili), con leffetto di escludere perdite assolute di potenza.
Contrariamente agli sviluppi successivi, influenzati da punti di vista
positivistici e fenomenistici e dal criticismo kantiano, la visione della natura
che emerge dalla scienza classica illuminista era comunque realista e
riduzionista. In particolare, il suo punto di vista deterministico-causale
aveva s la sua base in uninterpretazione ontologica leibniziana della realt,
ma questa, pur pienamente determinista, non era a sua volta riducibile a
catene causali separate tra loro, di carattere puramente meccanico, in una
parola non era propriamente meccanicista e riduzionista, data la visione
continua e olistica insieme, addirittura finalistica della realt che la
caratterizzava, per cui ogni elemento conteneva tutti gli altri e ne era
causalmente contenuto. In ogni caso, laspetto deterministico-causale della
visione di Leibniz, pur non potendo qualificarsi propriamente come
riduzionista e meccanicista, influenz decisamente il punto di vista della
scienza classica, in particolare la Meccanica razionale, a sua volta
indiscutibilmente realista e riduzionista. In realt la visione ontologica
leibniziana come concezione deterministica complessa della realt arriv
a favorire anche sviluppi non semplicemente meccanicisti e riduzionisti
della Scienza classica
15
. Solo in seguito per essa fu interpretata da
positivisti e fenomenisti come mera conoscenza empirica governata da mere
regolarit matematiche. E ci non avvenne prima dell800, non ancora ad

14
Truesdell, C., Essays in the History of Mechanics, Springer Verlag, Berlin 1968.
15
Brunet, P., Etude historique sur le principe de moindre action, Hermann, Paris 1938.





Complessit e riduzionismo
80




esempio in Lagrange, che si vantava di poter evitare rappresentazioni visive
nella sua opera matematica proprio perch essa era esplicitamente basata sui
principi a priori della conservazione della forza viva e della continuit
ontologico-matematica, sebbene poi gli oggetti fisici cui essi venivano
applicati fossero quelli della fisica newtoniana
16
. Subito dopo per, gi
Laplace identificava tout court la realt con il mondo di Newton in termini
atomico-molecolari cos come sarebbe suggerito dallesperienza o almeno
approssimato da essa, mentre i principi esprimevano per lui le regolarit
matematiche delle interazioni a distanza newtoniane, non gi strutture
ontologiche continue cartesiane o leibniziane. Egli salvaguardava tuttavia il
carattere unificante di quei principi matematici. Cos essi erano,
contrariamente a Leibniz, interpretati come principi deterministici in senso
anti-finalistico, comunque ancora unificanti e traducibili in modelli
riduzionistici elementari di tipo meccanicistico, in termini di atomi e forze
di interazione
17
. Laplace stesso tuttavia, pur convinto della validit del suo
riduzionismo meccanicistico, del suo potere unificante e della sua capacit
previsionale, ammetteva che in generale i mezzi di calcolo richiesti e la
conoscenza dello stato iniziale di un sistema fisico per determinarne
esattamente levoluzione successiva, non erano a nostra disposizione tanto
da permettere una previsione di assoluta precisione. Ci naturalmente
minava la fiducia nel determinismo meccanicistico che tuttavia Laplace
compensava con il ricorso alla probabilit come strumento di
approssimazione e rimedio dellignoranza, rinunciando a una conoscenza
di dettaglio assoluta e completa, attribuibile solo a unipotetica intelligenza
matematica dotata di una potenza di calcolo e una capacit di osservazione
infinite e non umane
18
. Diversa fu la reazione dei fenomenisti e dei
positivisti in generale alla crisi del riduzionismo meccanicistico classico
quale si esprimeva nellimpossibilit di realizzare lo stesso programma
riduzionistico classico, non disponendosi delle risorse matematiche e
sperimentali necessarie richieste, supposte infinite. Essi reagirono
attribuendo un carattere interamente empirico, formale e funzionale alle
leggi e uniformit matematiche che, nella sua visione riduzionista, Laplace
interpretava ancora meccanicisticamente. In tal modo, per Fourier, Ampre,
Fresnel le leggi matematiche unicamente dedotte dallesperienza, come
recita il titolo del lavoro fondamentale di Ampre sullelettrodinamica,

16
Capecchi, D., e Drago, A., Lagrange e la storia della meccanica, Progedit, Bari 2005.
17
Laplace, P. S., Exposition du systme du monde, in uvres, Gauthier-Villars, Paris 1909.
18
Laplace, P. S., Essai philosophique sur les probabilits, Courcier, Paris 1814.





Rossi: Dai modelli riduzionistici della realt fisica alla complessit



81




erano non modelli sostantivi, ma empirici e funzionali, di carattere
strumentale rispetto a esigenze specifiche di correlazione empirica
19
.
Tuttavia, la fisica teorica successiva tent ancora di dare fondamenti
ontologici alla fisica classica in termini di modelli sostantivi riduzionistici e
analogico-modellistici. Ma, al tempo stesso, essa prepar il terreno per le
rivoluzioni scientifiche della fisica del XX secolo che proprio quei termini
finirono per mettere in discussione . Cos, in particolare J. C. Maxwell, pur
partito dal programma riduzionistico forte di costruire una dinamica
delletere come oggetto fisico fondamentale, portatore meccanico dei
fenomeni elettromagnetici, per cui si sarebbe dovuto spiegare nei termini
delle propriet e dei comportamenti di tale oggetto lintera fenomenologia
del campo elettromagnetico, era giunto invece a elaborare in termini sempre
pi formali e funzionali e sempre meno sostantivi tale visione analogica, il
cosiddetto metodo delle analogie fisiche. Questo riduceva essenzialmente
il contenuto dei modelli, se non alle mere correlazioni empirico-formali dei
positivisti matematici, a strutture matematiche generali, unificanti s diversi
campi fenomenici, meccanici ed elettromagnetici in particolare, ma senza
identificarne i supposti portatori. Questi apparivano sempre pi
irriducibili a oggetti specifici, come appunto lipotetico etere, nonostante
luso euristico e matematico che, in termini di correlazioni funzionali, ne
veniva fatto nella Dynamical Theory maxwelliana. Questa era peraltro
ispirata alla visione continuista e matematica a priori di Lagrange, ma
liberata dei suoi aspetti ontologico-metafisici per assumere una
connotazione sempre pi solo euristico-funzionale. Occorre comunque
sottolineare che, per quanto riguarda invece laltra teoria fisica elaborata da
Maxwell in termini di modelli, la teoria cinetica dei gas, Maxwell rest pi
vicino alla tradizione riduzionista, ad esempio laplaciana. Loggetto
portatore del modello, in questo caso la molecola, si trasformava per
sempre pi in relazione funzionale, senza poter pi fornire una base
interpretativa strutturale stabile dei fenomeni trattati
20
.
Come A. Einstein e L. Infeld avevano interpretato levoluzione della
fisica tra 800 e 900 quale sviluppo di indizi non subito compresi alla luce
di teorie e principi non ancora esplicitamente elaborati, ma comunque
contenenti indicazioni che andavano nella direzione di quelle teorie e
principi
21
, anche lemergere della complessit nella scienza contemporanea

19
DAgostino, S., Part One: From Mechanics to Electrodynamics, in Id., A History of the
Ideas of Theoretical Physics, Essays on the Nineteenth and Twentieth Century Physics,
Kluwer Academic Publishers, Dordrecht 200, pp 103-106.
20
Ibid., Part Two: Electromagnetic Waves, pp. 109-216.
21
Einstein, A., - Infeld, L., Levoluzione della fisica, Einaudi, Torino 1948.





Complessit e riduzionismo
82




non fu subito compreso nel suo pieno significato e tard a svilupparsi quindi
sino alla seconda met del 900. Lo stesso Poincar, che pi di tutti affront
direttamente alla fine dell800 il tema dellimprevedibilit dellevoluzione
di sistemi pur dotati di pochi gradi di libert (tipicamente: i tre corpi
interagenti della meccanica newtoniana), non matur subito la trattazione
caotica del fenomeno, in quanto troppo difficile da superare era anche per
lui lidea preconcetta in genere negli scienziati classici, della stabilit
dellevoluzione di un simile sistema, e quindi della possibilit di
approssimare sempre una soluzione periodica stabile e confinata in una
superficie chiusa dello spazio delle fasi. Fu solo a un secondo tentativo che
Poincar. si rese conto che invece la traiettoria del sistema non era contenuta
in una superficie chiusa dello spazio delle fasi ma era caotica, pertanto
irriducibile a soluzioni periodiche stabili
22
. Quindi un altro grande
matematico francese, J. Hadamard, ispirandosi allo stesso Poincar, applic
il punto di vista caotico a fenomeni meccanici ordinari, in particolare allo
studio del moto di palle di biliardo che percorrono geodetiche, divergendo
sempre pi nelle loro traiettorie per minime incontrollabili variazioni delle
condizioni iniziali del loro moto
23
. Ma il persistere, nonostante tutto, del
punto di vista classico, con un ritardato sviluppo della nuova impostazione,
dimostrato dal fatto che ancora negli anni 40 del 900 prevaleva, ad
esempio nello studio, da parte del grande L. Landau, della turbolenza, tipico
fenomeno caotico, lapproccio allirregolarit e instabilit del fenomeno
stesso in termini di sovrapposizione di oscillazioni armoniche semplici,
ancora secondo il punto di vista meccanicistico che interpretava i fenomeni
complessi in generale, pur dipendenti da relazioni funzionali irriducibili,
come mera somma di mattoni elementari
24
. Solo negli anni 60, a opera,
tra gli altri, di un esperto dei fenomeni atmosferici, E. Lorenz, si mostr che
lirregolarit di tali fenomeni di moti fluidi non dipende dal gran numero di
variabili in gioco, ma dal caos deterministico che interviene, come
dipendenza sensibile da piccole variazioni delle condizioni iniziali, anche in
sistemi allapparenza semplici e con pochi gradi di libert
25
, esattamente
come avevano teorizzato Poincar e Hadamard molti anni prima. Pur senza
negare affatto il determinismo dellevoluzione del sistema studiato, quanto

22
Poincar, J. H., Sur le probleme des trois corps et les equations de la dynamique, in
Oeuvres, Gauthier-Villars, vol. VII, pp. 262-479.
23
Hadamard, J., Les surfaces courbures opposes a leur lignes godsiques, in Oeuvres,
CNRS, Paris 1968, vol 2, pp. 729-75.
24
Landau, L. D., Sul problema della turbolenza (in russo), Dokl. Akad. Nauk. SSSR, vol
44, 8, 339-42 (1994).
25
Lorenz, E., Deterministic Nonperiodic Flow, J. Atmos. Sci. 20, 130 (1963).





Rossi: Dai modelli riduzionistici della realt fisica alla complessit



83




piuttosto la possibilit di controllarlo, ci si limitava a riconoscerne la
tendenza evolutiva asintotica in termini di diversi attrattori o bacini di
attrazione in cui il sistema potrebbe riversarsi nella sua evoluzione
26
. Il
punto che le equazioni differenziali operanti per questi sistemi esprimono
s un andamento totalmente deterministico ma, come Poincar in particolare
evidenzi, al tempo stesso non lineare, tanto da dover contemplare una
rapida evoluzione divergente degli effetti, appunto anche per piccole
differenze nelle condizioni iniziali. Solo a partire dagli anni 60 del 900
comunque il comportamento caotico in meccanica riscosse sempre pi
linteresse dei fisici. Per la verit, come nota D. Ruelle
27
, anche nellambito
della meccanica e della fisica le idee avanzatissime, perfino rivoluzionarie
di Poincar sul caso, che anticiparono in modo sorprendentemente moderno
le attuali concezioni, tardarono molto a diffondersi e a essere riconosciute,
nonostante la loro consapevolezza e modernit. Vi fu infatti una
polarizzazione dei fisici, in generale, sulla nuova meccanica quantistica in
quanto nuova teoria del caso che avrebbe superato completamente la
meccanica deterministica classica, cui invece la teoria di Poincar era vista,
nonostante tutto, ancora subordinata, come teoria deterministica in cui il
caso appariva comunque in un quadro deterministico, bench non
riduzionistico e controllabile. Un altro motivo per cui la teoria di Poincar
non ebbe seguito immediato come teoria fisica, anche se, dato il grande
prestigio matematico del suo autore, si impose come pura matematica, da
individuare nel carattere spesso ancora intuitivo e qualitativo delle sue idee
prima che si sviluppassero strumenti matematici per la fisica pi adeguati,
come la teoria della misura e il teorema ergodico, oltre che mezzi di calcolo
pi potenti nel trattamento di grandi quantit di dati esprimenti minime
variazioni di condizioni iniziali dei sistemi caotici da cui ricavare effetti
sensibili macroscopici. Com noto, tali mezzi pi potenti cominciarono a
essere sviluppati solo trenta/quaranta anni dopo la morte di Poincar: i primi
calcolatori elettronici in grado di elaborare in tempi ragionevoli enormi
quantit di dati numerici
28
. Un altro aspetto problematico della nuova teoria
nella sua applicazione ai casi di dipendenza sensibile dalle condizioni
iniziali era poi espresso dalla critica convenzionalista mossa dal grande
fisico ed epistemologo P. Duhem secondo cui la teoria stessa era poco
utilizzabile, dato che non permetteva di fare previsioni a lungo termine
29
.Vi
tuttavia la possibilit di definire il grado di caoticit e quindi di

26
Vulpiani, A., Determinismo e caos, La Nuova Italia Scientifica, Roma 1994.
27
Ruelle, D., Caso e caos, Bollati Boringhieri, Torino 1992.
28
Ibid., p. 58.
29
Ibid., p. 56.





Complessit e riduzionismo
84




imprevedibilit di un sistema attraverso i cosiddetti esponenti caratteristici
di Lyapunov
30
. Questi permettono di descrivere gli attrattori in cui tendono
a collocarsi nello spazio delle fasi i sistemi dotati di sensibilit alle
condizioni iniziali, fornendo informazioni anche di carattere quantitativo e
non solo qualitativo, in particolare quella espressa nei termini dellentropia
di Kolmogorov-Sinai come grado di caoticit di un sistema
31
, potendosi
definire anche la dimensione geometrica frattale degli attrattori, senza
tuttavia potersi prevedere se non con unincertezza ineliminabile, se il
sistema finir in uno o in un altro
32
.
Il contributo di Kolmogorov e in generale della scuola matematica
sovietica stato quello di fornire una definizione quantitativa e formale
della complessit in generale, sottratta ad ambiguit e imprecisioni che
facilmente emergono in un campo tuttora oggetto di discussioni. Basti
pensare al conflitto che vi fu negli anni 90 tra I. Prigogine e R. Thom sul
carattere deterministico per Thom e aleatorio e indeterministico per
Prigogine della complessit
33
. Ebbene, lintroduzione dellincompressibilit
algoritmica come misura della complessit dovuta a Kolmogorov et al.
34
,
pur senza dirimere la diatriba determinismo-indeterminismo, la riconduceva
entro limiti ragionevoli, definendo rigorosamente un campo semantico,
quello della complessit appunto, condivisibile da parte di punti di vista
anche diversi e opposti, tale da comprenderne ed esprimerne gli aspetti
fondamentali, invarianti e comuni, un po come peraltro fece lo stesso
Kolmogorov a proposito di un altro fondamentale concetto, la probabilit.
Secondo la nuova definizione di complessit, si tratta di determinare il
numero di bit o unit di informazione minime in termini di comandi al
computer per generare una serie di cifre binarie (0,1), numero al disotto del
quale la serie non sarebbe generabile. La complessit corrisponderebbe in
sostanza allincompressibilit algoritmica della sequenza. Sarebbe dunque
complesso un sistema che non si lasci catturare subito da semplici regole per
essere prodotto in modo semplice, preciso e non ambiguo. Come si diceva,
al disotto di un numero di bit che ne esprimerebbe il grado di complessit, il

30
Vulpiani, A., op. cit., pp. 66-69.
31
Ibid., p. 67.
32
Ibid., pp. 69-73.
33
Pomian, K., (a cura di), Sul Determinismo, Il Saggiatore, Milano 1991.
34
Solomonoff, R. J., A formal theory of inductive inference, Inform. and Control, vol 7
(1964), pp. 1-22, 224-54; Kolmogorov, A. N., Tre approcci alla definizione del concetto di
quantit di informazione, Probl. Peredachi Inform., vol 1 (1965), pp. 3-11; Chaitin, G. J.,
On the length of programs for computing finite binary sequences, J. ACM, vol 13 (1966),
pp. 547-69.





Rossi: Dai modelli riduzionistici della realt fisica alla complessit



85




sistema dunque irriproducibile. Non quindi possibile comprimere oltre
quel limite lalgoritmo di istruzioni per generare il sistema, mentre in alcuni
casi dobbiamo addirittura rassegnarci ad identificare lalgoritmo generatore
della sequenza con l elenco completo, eventualmente infinito, dei termini
della sequenza. In ogni caso, la caoticit dipende causalmente,
deterministicamente, dalle condizioni iniziali ed quindi oggettiva, ma al
tempo stesso anche epistemica, in quanto dovuta allincapacit
dellosservatore di determinare esattamente lo stato iniziale del sistema e
quindi di effettuare previsioni a lungo termine, pur essendo le condizioni
iniziali stesse oggettive e deterministicamente operanti. Si tratta di una
situazione di indecidibilit che richiama il teorema di incompletezza di
Gdel
35
. Il problema che non possibile determinare le condizioni iniziali
con precisione arbitraria, ed effettuare una previsione con laccuratezza
desiderata, cos come non possibile dimostrare simultaneamente la
completezza e la non contraddittoriet dellaritmetica elementare. Il
carattere indubbiamente deterministico, dal punto di vista ontico, dello stato
di un sistema, almeno apparentemente contrasta dunque con
limprevedibilit di principio dellevoluzione di quel sistema, La
contraddizione tuttavia si pu e si deve superare assumendo come del tutto
sensato non identificare il carattere deterministico con la possibilit di
previsione esatta, contrariamente a quanto afferma Popper nel Poscritto alla
Logica della scoperta scientifica
36
. Secondo lui infatti il punto di vista
indeterministico sarebbe letteralmente dimostrato dai casi di impossibilit di
previsione, come se non fosse possibile che il determinismo ontico conviva
senza contraddizione con limprevedibilit epistemica. La situazione
simile a quella dellirreversibilit, che pu coesistere oggettivamente in un
sistema, senza contraddizione, con la reversibilit meccanica delle leggi che
governano lo stesso sistema, in quanto si tratta sempre del fatto che, come
nel caso dellinterpretazione meccanica della termodinamica, il numero
delle condizioni iniziali che implicano lirreversibilit incommensura-
bilmente maggiore di quello delle condizioni iniziali che implicano la
reversibilit, pur non essendovi alcuna contraddizione di principio tra luno
e laltro. Analogamente, il numero delle condizioni iniziali che implicano
limprevedibilit , nel caso dei processi caotici, maggiore di quello delle
condizioni iniziali che non limplicano, senza che vi sia alcuna
contraddizione tra luno e laltro. In particolare, R. Thom ha sottolineato, in

35
Ford, J., How random is a coin toss?, Physics Today, 36 (1983), 40.
36
Popper, K.R., Poscritto alla Logica della scoperta scientifica, II. Luniverso aperto. Un
argomento per lIndeterminismo, Il Saggiatore, Milano 1984.





Complessit e riduzionismo
86




polemica con I. Prigogine, che il determinismo inevitabile per la scienza
ed esprime la necessaria causalit dei processi fisici, senza che ci
impedisca di definire alcuni di tali processi al tempo stesso del tutto
deterministici e oggettivamente imprevedibili, data la complessit e
irregolarit degli stessi. Nei termini appunto di un caos deterministico
rigorosamente definibile in unaccezione causale necessaria e, se non
prevedibile, non perci contraddittoria rispetto a quei diversi processi che
siano anchessi deterministici, ma al tempo stesso oggettivamente
prevedibili. Essa non costituir quindi alcuna alternativa, se non in termini
di maggiore complessit oggettiva, rispetto al determinismo classico,
riduzionistico e, almeno in linea di principio, prevedibile
37
. Entra in gioco a
questo punto la trattazione statistica e probabilistica sviluppata in fisica
soprattutto a partire da Maxwell e Boltzmann per superare la difficolt di
previsione nellevoluzione di un sistema con molti gradi di libert, per cui ci
si accontenta di una previsione pi grossolana, o meglio si sostituisce alla
determinazione esatta delle condizioni iniziali una determinazione solo
statistica e probabilistica. Diverso, come sappiamo, il caso della
meccanica quantistica che, almeno nella sua interpretazione ortodossa,
assume la probabilit come irriducibile anche in linea di principio, secondo
il principio di indeterminazione di Heisenberg. Il caos deterministico
ripropone quindi piuttosto il punto di vista di Maxwell e Boltzmann in
quanto non pone un limite assoluto, ontologico alla possibilit di
determinazione delle condizioni iniziali, ma piuttosto un limite dovuto, nel
caso della meccanica statistica, allalto numero di particelle coinvolte e, nel
caso del caos deterministico, nei sistemi caotici, alloggettiva dipendenza
sensibile dalle piccole variazioni delle condizioni iniziali, sempre per da un
punto di vista deterministico
38
.
A tale proposito, occorre evitare, anche nello studio della complessit,
di confondere conoscenza ed ignoranza. Pur riconoscendo il progresso
dovuto allo studio del caos, della turbolenza, dei sistemi fuori
dallequilibrio, non siamo in grado di estrarre da questo studio con certezza
la chiave dei processi creativi emergenti come autentiche novit irriducibili,
dovute ad una loro produzione spontanea a partire da processi e fenomeni di
pi basso livello. Per definire matematicamente il difficile rapporto tra caos
e determinismo come base per poter riuscire a spiegare i processi creativi, si
quindi tentato, sulla scia di Poincar, di fare ricorso alla relazione tra

37
Thom, R., in Pomian, K., cit.
38
Sinai, Ya. G., Lalatoire du non-alatoire in A. Daham-Dalmedico, J.L. Chabert e K.
Chemla (a cura di), Chaos et determinisme, Editions du Seuil, Paris 1992.





Rossi: Dai modelli riduzionistici della realt fisica alla complessit



87




lineare e non lineare come opposte linee di analisi matematica, essendo la
non linearit pi adatta a render conto matematicamente proprio dei processi
pi imprevedibili ed incontrollabili, dato che i sistemi non lineari hanno
appunto, come si sa, conseguenze non banalmente proporzionali alle
condizioni iniziali. In essi a piccole variazioni di queste si avrebbero effetti
sensibili appunto non lineari. Si deve effettivamente ammettere che prima
che si sviluppasse alla fine dell800 la tematica della complessit in fisica
vi era una netta tendenza alla linearizzazione nello studio delle equazioni
differenziali ordinarie. Resta comunque tuttora problematica la pretesa della
teoria della complessit di rendere conto dellemergere di nuove propriet, a
partire da livelli inferiori, a livelli superiori, dalla materia bruta alla vita e
alla coscienza, prima in genere supposte non trattabili in senso
riduzionistico finch, a partire dal XIX secolo, si pens appunto di poterle
trattare mediante approcci matematici deterministici e probabilistici come
vie per pervenire dal semplice al complesso
39
. In particolare, il problema di
trattare le propriet di memoria dei sistemi mediante i metodi di isteresi o
retroazione, oltre lapproccio meccanico tradizionale, rappresent un terreno
importante di approfondimento della dimensione storica e auto-
organizzativa di sistemi non solo fisici, ma senza con questo riuscire a
spiegare nei limiti della teoria della complessit laspetto creativo e
finalistico di tali sistemi. Va anzitutto attribuito a Boltzmann
40
il primo
tentativo di trattazione matematico-formale dei fenomeni fisici di elasticit
con memoria, per cui levoluzione di un sistema non dipende da un solo
stato iniziale come nellimpostazione riduzionistica classica, ma da tutta la
storia pregressa del sistema, tanto da richiedere limpiego di strumenti
analitici nuovi, le equazioni integro-differenziali la cui formulazione
completa dobbiamo al grande V. Volterra
41
, lo stesso che, come lamericano
A. J. Lotka, mise a punto anche le equazioni differenziali non lineari per lo
studio dellinterazione tra specie predatrici e specie predate, alla base dei
processi di evoluzione biologica
42
.

39
Israel, G., Some critical observations on the science of complexity, in P. Freguglia et al.
(a cura di), The Science of Complexity: chimera or reality?, Societ Editrice Esculapio,
Bologna 2005, pp. 150-70.
40
Ianniello, M. G., Il contributo di Boltzmann alla teoria dei fenomeni di elasticit con
memoria, Giornale di Fisica, XXXVI, Aprile-Giugno 1995, pp. 121-150
41
Volterra, V., Theory of Functionals and of Integro-Differential Equations, Dover, New
York 1965.
42
Volterra, V., Leons sur la theorie mathematique de la lutte pur la vie, Gauthier-Villars,
Paris 1931.





Complessit e riduzionismo
88




In ogni caso, n le equazioni differenziali lineari per lo studio dei
sistemi dotati di memoria, n le equazioni differenziali non lineari per lo
studio delle interazioni prede-predatori, per quanto ampliassero la portata
dellanalisi nel senso della complessit dei processi studiati da un punto di
vista statistico o deterministico, possono rendere conto di quegli obiettivi e
finalit che pure si assumono alla base dei processi studiati. Il fatto che
obiettivi e finalit non si lasciano ridurre ai meccanismi deterministici e alle
relazioni statistiche obiettive che pure contribuiscono alla loro affermazione.
Se poi si allarga lo sguardo ai fenomeni sociali e umani, volendo
rappresentarli unicamente mediante algoritmi deterministici o probabilistici
alla stregua di fenomeni fisici da cui si vogliano far emergere fenomeni
nuovi e creativi, in realt si avr solo una loro rappresentazione del tutto
inadeguata, estremamente povera in termini di movimenti del tutto casuali
del tipo dei moti browniani di un marinaio ubriaco incerto sulla strada da
prendere come lasino di Buridano, secondo Thom
43
per il quale nulla pu
essere pi lontano dalle decisioni e scelte di un soggetto cosciente. Si potr
al massimo riuscire a enunciare leggi fisiche impersonali attraverso una loro
riduzione ai soli aspetti universali legali, seguendo la raccomandazione di
Galileo di difalcare gli impedimenti
44
. Lo studio dei comportamenti
coscienti orientati ad uno scopo potr invece progredire solo se evita di
appiattirsi sul modello metodologico deterministico causale o statistico
casuale allo scopo di conseguire conclusioni puramente obiettive su
comportamenti soggettivi, e se cerca di ridimensionare la procedura fisica
galileiana di difalcare gli impedimenti. In ogni caso, la formalizzazione
nelle scienze che hanno attinenza con la storia, con gli scopi e le decisioni e,
prima ancora, con le dinamiche dellevoluzione biologica (in particolare con
il tentativo di tradurre, come si visto, in linguaggio modellistico analitico-
formale i contenuti dei processi genetico-evolutivi), non potr certo
assumere mai le stesse dimensioni che ha assunto nella fisica, in termini di
espansione/applicazione di procedure matematico-formali. Peraltro neppure
nella fisica, a rigore, nonostante gli sviluppi positivi della scienza della
complessit, questa deve rischiare, attraverso la matematizzazione/
formalizzazione, di presentarsi come una versione solo un po aggiornata
del riduzionismo classico. In definitiva, pur coesistendo proficuamente
anche con il riduzionismo classico, la scienza della complessit se ne deve
differenziare, per cooperare anche con altre forme cognitive diverse dalla

43
Thom, R., Introduction a P. S. Laplace, Essai philosophique sur la proabilit, Bourgois,
Paris 1986.
44
Galilei, G., Dialogo sopra i due massimi sistemi cit., p. 224.





Rossi: Dai modelli riduzionistici della realt fisica alla complessit



89




pura formalizzazione e matematizzazione, in termini di storicit e
soggettivit, dato che neanche le leggi pi formali della storia possono
essere banalmente ricavate dai sistemi dinamici deterministici, in particolare
sul modello della fisica. Quindi si tratta di riconoscere lapporto conoscitivo
autonomo di settori di cultura e conoscenza anche diversi dalla fisica-
matematica, anche storico-filosofici e perfino artistico-letterari. Settori che
cercano anchessi di stabilire forme proprie di ordine e obiettivit anche
quantitative e di trarre insegnamenti da esempi e generalit tipizzate
dallesperienza, in forme comunque autonome e diverse da quelle proprie
della fisica-matematica, pur coesistendo con essa. Questa tende invece
talvolta, problematicamente, perfino a cercare di ridurre quelle diverse
forme cognitive al proprio modello metodologico di scienza della
complessit, su basi comunque totalmente formali-matematiche e pertanto
certamente non sufficienti
45
.
Riferimenti
Brunet, P., 1938, Etude historique sur le principe de moindre action,
Hermann, Paris.
Cassirer, E., 1973, Sostanza e funzione, La Nuova Italia, Firenze.
Capecchi, D., Drago, A., 2005, Lagrange e la storia della meccanica,
Progedit, Bari
Chaitin, G.J., 1966, On the length of programs for computing finite binary
sequences, J. ACM, vol 13, pp. 547-69.
Costabel, P., 1969, Leibniz et la dynamique en 1692. Textes et
commentaires, Hermann, Paris.
DAgostino, S., 2000, A History of the Ideas of Theoretical Physics, Essays
on the Nineteenth and Twentieth Century Physics, Kluwer Academic
Publishers, Dordrecht.
Descartes, R., 2005, Lettera a Mersenne dell11 ottobre 1638 in Tutte le
lettere 1619-1650, a cura di G. Belgioioso, Bompiani, Milano, pp.
878-899.
Descartes, R., 1983, La Diottrica e Le Meteore, in Opere scientifiche,
volume secondo, a cura di E. Lojacono, UTET, Torino, pp. 175-508.
Drago, A., 2003, La riforma della dinamica secondo G. W. Leibniz,
Hevelius Edizioni, Benevento.
Einstein, A., Infeld, L., 1948, Levoluzione della fisica, Einaudi, Torino.
Ford, J., 1983, How random is a coin toss?, Physics Today, 36, 40.

45
Israel, G., cit.





Complessit e riduzionismo
90




Galilei, G., 1998, Dialogo sopra i due massimi sistemi, a cura di O. Besomi
e M. Helbing, Antenore, Padova, vol. I, Testo.
Galilei, G., 1968, Opere, Barbera, Firenze, vol. VI, 187-188.
Hadamard, J., 1968, Les surfaces courbures opposes a leur lignes
godsiques, in uvres, CNRS, Paris, vol 2, pp. 729-75.
Hall, A.R., 1989, Philosophers at war. The Quarrel between Newton and
Leibniz, Cambridge U. P., Cambridge.
Ianniello, M. G., 1995, Il contributo di Boltzmann alla teoria dei fenomeni
di elasticit con memoria, Giornale di Fisica, XXXVI, Aprile-
Giugno, pp. 121-150
Israel, G., 2005, Some critical observations on the science of complexity, in
P. Freguglia et al. (a cura di), The Science of Complexity: chimera or
reality?, Societ Editrice Esculapio, Bologna, pp. 150-70.
Kant, I, 1959, Primi principi metafisici della scienza della natura, Cappelli,
Bologna.
Koyr, A., 1972, Studi newtoniani, Einaudi, Torino.
Koyr, A., 1970, Dal cosmo chiuso alluniverso infinito, Feltrinelli, Milano.
Landau, L.D., 1994, Sul problema della turbolenza (in russo), Dokl. Akad.
Nauk. SSSR, vol 44, 8, pp. 339-42.
Laplace, P.S., 1909, Exposition du systme du monde, in uvres, Gauthier-
Villars, Paris.
Laplace, P.S., 1814, Essai philosophique sur les probabilits, Courcier,
Paris.
Lorenz, E., 1963, Deterministic Nonperiodic Flow, J. Atmos. Sci. 20,
130.
Poincar, J. H., 191654, Sur le problme des trois corps et les quations de
la dynamique, in uvres, Gauthier-Villars, vol. VII, pp. 262-479.
Pomian, K., 1991, (a cura di), Sul Determinismo, Il Saggiatore, Milano.
Popper, K.R., 1984, Poscritto alla Logica della scoperta scientifica, II.
Luniverso aperto. Un argomento per lIndeterminismo, Il Saggiatore,
Milano.
Ruelle, D., 1992, Caso e caos, Bollati Boringhieri, Torino.
Sinai, Ya. G., 1992, Lalatoire du non-alatoire in: A. Daham-Dalmedico,
J.L. Chabert e K. Chemla (a cura di), Chaos et determinisme, Editions
du Seuil, Paris.
Solomonoff, R.J., 1964, A formal theory of inductive inference, Inform.
and Control, vol 7, pp. 1-22, 224-54; Kolmogorov, A.N., 1965, Tre
approcci alla definizione del concetto di quantit di informazione,
Probl. Peredachi Inform., vol 1, pp. 3-11





Rossi: Dai modelli riduzionistici della realt fisica alla complessit



91




Thom, R., 1986, Introduction a P. S. Laplace, Essai philosophique sur la
proabilit, Bourgois, Paris.
Truesdell, C., 1968, Essays in the History of Mechanics, Springer Verlag,
Berlin.
Volterra, V., 1931, Lecons sur la theorie mathematique de la lutte pur la
vie, Gauthier-Villars, Paris.
Volterra, V., 1965, Theory of Functionals and of Integro-Differential
Equations, Dover, New York.
Vulpiani, A., 1994, Determinismo e caos, La Nuova Italia Scientifica,
Roma.






2012 Roberto Serra
Complex System Biology, in Complessit e riduzionismo, pp. 91-98
Published by Isonomia, Rivista online di Filosofia Epistemologica ISSN 2037-4348
Universit degli Studi di Urbino Carlo Bo
http://isonomia.uniurb.it/epistemologica

93





Complex Systems Biology
Roberto Serra
Modena and Reggio Emilia University
ECLT (Euroopean Centre for Living Technology), Venice
roberto.serra@unimore.it
1. Introduction
The term Complex Systems Biology was introduced a few years ago
[Kaneko, 2006] and, although not yet of widespread use, it seems
particularly well suited to indicate an approach to biology which is well
rooted in complex systems science.
Although broad generalizations are always dangerous, it is safe to state
that mainstream biology has been largely dominated by a gene-centric view
in the last decades, due to the success of molecular biology. So the one gene
- one trait approch, which has often proved to be effective, has been
extended to cover even complex traits. This simplifying view has been
appropriately criticized, and the movement called systems biology has taken
off.
Systems biology [Noble, 2006] emphasizes the presence of several
feedback loops in biological systems, which severely limit the range of
validity of explanations based upon linear causal chains (e.g. gene
behaviour). Mathematical modelling is one the favourite tools of systems
biologists to analyze the possible effects of competing negative and positive
feedback loops which can be observed at several levels (from molecules to
organelles, cells, tissues, organs, organisms, ecosystems).
Systems biology is by now a well-established field, as it can be inferred
by the rapid growth in number of conferences and journals devoted to it, as
well as by the existence of several grants and funded projects.





Complessit e riduzionismo
94




Systems biology is mainly focused upon the description of specific
biological items, like for example specific organisms, or specific organs in a
class of animals, or specific genetic-metabolic circuits. It therefore leaves
open the issue of the search for general principles of biological organization,
which apply to all living beings or to at least to broad classes.
We know indeed that there are some principles of this kind, biological
evolution being the most famous one. The theory of cellular organization
also qualifies as a general principle. But the main focus of biological
research has been that of studying specific cases, with some reluctance to
accept (and perhaps a limited interest for) broad generalizations. This may
however change, and this is indeed the challenge of complex systems
biology: looking for general principles in biological systems, in the spirit of
complex systems science which searches for similar features and behaviours
in various kinds of systems.
The hope to find such general principles appears well founded, and I
will show in Section 2 that there are indeed data which provide support to
this claim.
Besides data, there are also general ideas and models concerning the
way in which biological systems work. The strategy, in this case, is that of
introducing simplified models of biological organisms or processes, and to
look for their generic properties: this term, borrowed from statistical
physics, is used for those properties which are shared by a wide class of
systems.
In order to model these properties, the most effective approach has been
so far that of using ensembles of systems, where each member can be
different from another one, and to look for those properties which are
widespread. This approach was introduced many years ago [Kauffman,
1971] in modelling gene regulatory networks. At that time one had very few
information about the way in which the expression of a given gene affects
that of other genes, apart from the fact that this influence is real and can be
studied in few selected cases (like e.g. the lactose metabolism in E. coli).
Today, after many years of triumphs of molecular biology, much more has
been discovered, however the possibility of describing a complete map of
gene-gene interactions in a moderately complex organism is still out of
reach.
Therefore the goal of fully describing a network of interacting genes in
a real organism could not be (and still cannot be) achieved. But a different
approach has proven very fruitful, that of asking what are the typical
properties of such a set of interacting genes. Making some plausible
hypotheses and introducing some simplifying assumptions, Kauffman was





Serra: Complex Systems Biology



95




able to address some important problems. In particular, he drew attention to
the fact that a dynamical system of interacting genes displays self-
organizing properties which explain some key aspects of life, most notably
the existence of a limited number of cellular types in every multicellular
organism (these numbers are of the order of a few hundreds, while the
number of theoretically possible types, absent interactions, would be much
much larger than the number of protons in the universe).
In section 3 I will describe the ensemble based approach in the context
of gene regulatory networks, and I will show that it can describe some
important experimental data. Finally, in section 4 I will discuss some
methodological aspects.
2. General principles at work
Biologists have been largely concerned with the analysis of specific
organisms, and the search for general principles has in a sense lagged
behind. This makes sense, since generalizations are hard in biology,
however there are also important examples of generic properties (in the
sense defined in section 1) of biological systems.
I will consider here two properties of this kind, namely power-law
distributions and scaling laws, which can be observed by analyzing existing
data. In section 3 I will consider another interesting candidate generic
property, concerning so-called critical states, whose testing however
requires the use of models, besides data.
Power-law distributions are widespread in biology: for example, the
distribution of the activation level of the genes in a cell belongs to this class
[see Kaneko, 2006 and further references quoted therein]. This means that
the frequency of occurrence of genes with activation level x, lets call it
p(x), is proportional to x
-g
. Similar laws are found for other important
properties, like the abundance of various chemicals in a cell. Power-law
distributions differ from the more familiar gaussian distributions in many
respects, the most relevant being that there is a higher frequency of
occurrence of results which are markedly different from the most frequent
ones. These outliers, which are present in an appreciable amount, may have
a very profound effect on the performance of the system.
It is also very important to observe that power-law distributions of the
number of links are frequently observed in biological networks. Let us
consider for example protein-protein networks, where the nodes are the
various proteins, and there is a link between two such nodes if the two





Complessit e riduzionismo
96




corresponding proteins can directly interact, or gene networks, where the
nodes are the genes and there is a link from gene A to gene B if the former
affects the level of expression of the second. In these cases, as well as in
many other cases, the power law concerns the distribution of the number of
links per node. The remark concerning the relatively high frequency of
outliers applies also here, and this means that there are some nodes with a
very high number of links. These much-connected nodes, called hubs, are
those which most strongly influence the behavior of the network.
Another example of a generic property concerns the relationship
between the rate of energy consumption (r) and the mass of an organism (m)
[West and Brown, 2005]. We refer here not to single individuals, but to the
average values for a given kind of animal (e.g. cow, mouse, hen, etc.). If one
plots the logarithm of the rate of oxygen intake versus the logarithm of the
mass, one observes a linear relationship, and a linear relationship between
the logarithms implies a power-law relationship between the variables,
therefore r is proportional to m
a
(the rate is proportional to the mass raised
to the exponent a).
Note that although the mathematical relationship is the same in the two
cases above, the semantics is very different. In the first example, the power-
law refers to a single variable, and to the frequency of occurrence of a given
value in a population, while in the second case it refers to the relationship
between two different variables.
What is particularly impressive in the relationship between r and m is that it
holds for organisms which are very different from each other (e.g. mammals
and birds) and that it spans a very wide range of different masses, from
whales to unicellular organisms. Moreover, the same straight line (in a log-
log plot) can be extrapolated to even smaller masses, and it can be seen that
mithocondria (intracellular organelles) and even the molecular complexes
involved lay on the same line. So the law seems to hold for an
astonishingly high range of mass values.
Of course this is not a law strictu sensu, but rather an empirical
relationship. It is interesting to observe that an explanation has recently been
proposed for this regularity, based on the idea that biological evolution has
led different organisms to optimize oxygen use. Indeed, the value of the
exponent a, estimated from data, is 3/4, which is surprising, but an elegant
proof has been proposed that links the universality of this exponent to the
fact that there are three spatial dimensions (and to the hypothesis that
evolution works to minimize energy loss).





Serra: Complex Systems Biology



97




The two examples discussed above are indeed sufficient to show clearly
that there exist generic properties of biological systems, which hold
irrespectively of the differences between different organisms.
3. Models of generic properties, the ensemble approach and criticality
In order to make the presentation clear I will refer to aspecific example, i.e.
to the so-called Random Boolean Network (RBN) model of gene regulatory
networks.
While all the cells in our body share the same genome, they may be
very different like e.g. blood cells, epithelial cells, etc.; this is related to the
fact that different genes are expressed in different cell types (although some
genes are expressed in all cell types), where expressed means that the
proteins encoded by that gene are actually produced. The expression of a
given gene depends upon a set of regulatory molecules, which are
themselves the product of other genes, or whose presence is indirectly
affected by the expression of other genes. So genes influence each others
expression, and this can be described as a network of interacting genes.
In RBNs [Kauffman, 1993, 1995] the activation of a gene is assumed to
take just one of two possible values, active (1) or inactive (0) a boolean
approximation whose validity can be judged a posteriori. Note also that
random boolean networks have raised considerable interest, and that many
different versions of the same idea exist (for example, continuous-valued or
multiple-valued generalizations) but for the sake of definiteness I will
consider the basic model, leaving aside the discussion of several variants.
The model supposes that the state of each node at time t+1 depends upon the
values of its inputs nodes at the preceding time step t. Given that the
activations are boolean, the function which determines the new state of a
node is a boolean function of the inputs.
As it was said in the introduction, we know just some gene-gene
interactions, and most of them are unknown. Is there anything meaningful
that can be done in this situation? Kauffman taught us that this is indeed the
case. He decided to focus not on a single specific network, but to consider
the behavior of sets (ensembles) of networks which share some features. For
example, we might want to investigate the behavior of networks of 1000
genes, where each gene is influenced exactly by two other genes; to this aim
we generate at random a certain number of networks, by drawing at random
the connections and also by assigning to every node a random boolean
function of its two inputs. There exist 16 such functions, so the number of 2-





Complessit e riduzionismo
98




input, 1000 nodes random networks is huge. One can however explore the
behavior by sampling this huge set, and in this way Kauffman discovered
that RBNs exist in three different dynamical regimes, ordered, critical and
chaotic. In ordered networks a perturbation dies quickly out, while in
chaotic networks it tends to grow; the behavior of critical networks is
intermediate between these two.
Depending upon the value of a parameter, the families of networks can
be ascribed to these classes. For example, ceteris paribus, highly connected
networks are more disordered than poorly connected ones. This is however
a property of the set of networks with those parameter values, and single
network realizations can behave in a way different prom the typical
behaviour of their class.
Now let us come back to the search for generic properties. It has been
suggested [Langton, 1990, Packard, 1988] that critical states provide an
optimal tradeoff between the need for robustness, since a biological system
must be able to keep homeostasis, and the need to be able to adapt to
changes. If this is the case, and if evolution is able to change the network
parameters, then it should have driven organisms towards critical regions in
parameter space.
This is a very broad and challenging hypothesis, and it can be tested by
comparing the results of models of gene regulatory networks with actual
data concerning gene expression. The use of data which is required for this
purpose is very different from the more common use of the same data to
infer information about the interactions among specific genes. In testing the
criticality hypothesis it is instead necessary to look for global properties of
gene expression data, like their distributions or some information-theoretic
measures.
Recent results [Serra et al., 2004, 2007, Ramo et al., 2006, Schmulevich
et al., 2005] indicate that cells like those of the yeast S. cerevisiae and
leukemic human cells seem indeed critical. While the conclusion is not
definitive, and many more data and analyses are required, these result point
to a new way to look for generic properties, which cannot be read directly in
the data but can be inferred from a comparison between patterns in data and
in model results.


4. Conclusions

It is important to stress that the approach which has been outlined here does
not stand in opposition to the classical one of molecular biology, but it





Serra: Complex Systems Biology



99




rather complements it. The search for the microscopic features of complex
systems is a very fruitful royal road, as it is demonstrated, among others, by
the successes of molecular biology and of microphysics. However, the
search for the microscopic laws cannot pretend to be the only acceptable
way to improve our knowledge. The science of complex systems has shown
that there are also laws which describe the outcome of the interaction of
microscopic entities, which are largely independent from their
microfeatures.
The search for generic properties has gained widespread acceptance in
physics, but is still in its infancy in the biological sciences. However, the
examples discussed above show that it may lead to very interesting and
promising results. And it is important to observe that these are just a few
examples - although they are among the most remarkable ones - of the
possible outcomes of the application of the methods of complex systems
biology.


Acknowledgments

I am indebted to my colleague Marco Villani, with whom I shared a 15
years long research experience in what is now called complex systems
biology, to Stuart Kauffman, for some wonderful discussions, and to my
Ph.D. students who made excellent work in exploring the properties of
RBNs and of other generic models of biological systems.
This work has been partly supported by the Italian Ministry for
Research, under the MIUR-FISR project 2982/Ric (Mitica).


Reference

Kaneko, K., 2006, Complex systems biology, Springer, Heidelberg.
Kauffman S. A, 1971, Gene regulation networks, Current topics in
Developmental Biology, 6, 145-182.
Kauffman S. A., 1993, The origins of order, Oxford University Press,
Oxford.
Kauffman S. A., 1995, At home in the universe, Oxford University Press,
Oxford.
Langton, C.G., 1991, Life at the Edge of Chaos in Artificial life II a cura di
Langton, C.G., Taylor, C., Farmer, J. D. and Rasmussen, S. (Addison
Wesley: SFI studies in the sciences of complexity).





Complessit e riduzionismo
100




Noble, D., 2006, The music of life, Oxford University Press, Oxford.
Packard, N., 1988, Adaptation toward the edge of chaos in Dynamic
Patterns in Complex Systems, a cura di Kelso, J. A.S., Mandell, A. J. e
Shlesinger, M. F., World Scientific, Singapore, 1988, p. 293.
Ramo, P., Kesseli, Y., and Yli-Harja, O., 2006, Perturbation avalanches
and criticality in gene regulatory networks, Journal of Theoretical
Biology. 242 (2006) 164-170.
Serra, R., Villani, M. e Semeria, A., Genetic network models and statistical
properties of gene expression data in knock-out experiments, Journal
of Theoretical Biology, 227 (2004), 149-157.
Serra, R., Villani, M., Graudenzi, A. and Kauffman, S.A., Why a simple
model of genetic regulatory networks describes the distribution of
avalanches in gene expression data, Journal of Theoretical Biology
249 (2007) 449-460.
Shmulevich, I., Kauffman, S.A., Aldana, M., Eukaryotic cells are
dynamically ordered or critical but not chaotic, Proceedings of the
National Academy of Sciences of the United States of America, 102
(2005) 13439-13444.
West, G.B. e Brown, J.H., The origin of allometric scaling laws in biology
from genomes to ecosystems: towards a quantitative unifying theory of
biological structure and organization, The Journal of Experimental
Biology 208 (2005) 1575-1592.







Giorgio Turchetti
Dai modelli fisici ai sistemi complessi, in Complessit e riduzionismo, pp. 99-115
Published by Isonomia, Rivista online di Filosofia Epistemologica ISSN 2037-4348
Universit degli Studi di Urbino Carlo Bo
http://isonomia.uniurb.it/epistemologica

101





Dai modelli fisici ai sistemi complessi
Giorgio Turchetti
Universit degli Studi di Bologna
turchetti@bo.infn.it
1. Introduzione
Losservazione della natura con lintento di capire lorigine della variet di
forme e fenomeni in cui si manifesta ha origini remote. Allinizio il rapporto
con i fenomeni naturali era dominato da sentimenti quali paura e stupore che
conducevano a supporre lesistenza di entit sfuggenti alla percezione
diretta che permeavano gli elementi animandoli. Ecco dunque che la magia
rappresenta lelemento dominante della filosofia naturale primitiva
caratterizzata da una unicit degli eventi e dalla impossibilit di capirli e
dominarli in quanto frutto della volont di essenze a noi estranee e non
governabili. Con il nascere della civilt ed il suo progredire il tempo
dedicato ai lavori necessari per il sostentamento e la sopravvivenza diminu
e nella ripartizione dei compiti alcuni individui potevano dedicare parte del
loro tempo alla osservazione della natura ed alla sua interpretazione in
termini non trascendenti. Nella natura, intesa come tutto ci che ci circonda
composto da esseri viventi e da materia inorganica nelle sua varie
aggregazioni sulla terra e nel cosmo, ci che attir lattenzione fin
dallinizio furono furono i fenomeni regolari e periodici come i moti della
luna, dei pianeti e delle stelle. Nel contempo dopo una spinta iniziale dettata
da esigenze pratiche come contare gli oggetti o misurare i campi, la
matematica si era sviluppata autonomamente e si rivel idonea a descrivere
in termini quantitativi i moti dei corpi celesti. La terra era al centro
delluniverso mentre il moto degli altri corpi celesti risultava da una
composizione di moti circolari uniformi. Questa visione geocentrica e





Complessit e riduzionismo
102




pitagorica (armonia delle sfere) delluniverso ha prevalso fino agli albori
della scienza moderna, anche se una descrizione eliocentrica, basata su
validi argomenti, era stata proposta. Per quanto riguarda la struttura della
materia i presocratici avevano gi proposto i quattro elementi mentre gli
atomisti avevano ricondotto tutto ad entit elementari primigenie, il cui
aggregarsi e disgregarsi da luogo a tutti gli stati e le molteplici forme della
materia. Queste intuizioni si ritrovano nella fisica moderna che contempla
quattro stati di aggregazione, che hanno come unico sostrato comune gli
atomi. La fisica moderna nasce con Galileo e Newton, la cui dinamica si
sviluppa a partire dalle leggi di Keplero che descrivono il moto dei pianeti
nel sistema eliocentrico, per potersi poi applicare ad un qualunque sistema
materiale. Pertanto nei due secoli successivi si ritenne che un modello
meccanico potesse essere sviluppato per un qualunque sistema fisico e
quindi per luniverso intero la cui evoluzione doveva essere
matematicamente prevedibile.
Per i fenomeni termici tuttavia vennero formulate leggi ad hoc come
quelle della termodinamica che mostrano come i processi macroscopici
siano irreversibili in contrasto con le leggi della meccanica. Si deve a
Boltzmann
1
il tentativo di ricondurre la termodinamica alla meccanica per
un gran numero di particelle dei cui moti disordinati viene data una lettura
di carattere statistico. Laumento della entropia e la irreversibilit seguono
dalla ipotesi di caos molecolare ossia che i moti siano cos disordinati che si
perde rapidamente memoria dello stato iniziale. Lidea di introdurre una
misura di probabilit nel contesto della meccanica sembra antitetica con la
natura stessa della teoria rivolta fino ad allora allo studio di sistemi con moti
regolari, reversibili e prevedibili individualmente su tempi lunghi. Tuttavia
lanalisi probabilistica diventa essenziale per lo studio di sistemi
caratterizzati da forti instabilit, e da orbite irregolari per i quali la
previsione richiede una conoscenza della condizioni iniziali con precisioni
fisicamente non raggiungibili.
Combinando la evoluzione deterministica della meccanica di Newton o
di Hamilton con la descrizione statistica attraverso una opportuna misura
invariante di probabilit nello spazio delle fasi, nasce la teoria dei sistemi
dinamici
2
che consente di descrivere non solo i sistemi ordinati o i sistemi
caotici ma anche tutti quelli che vedono coesistere in diverse proporzioni
ordine e caos e che presentano una straordinaria variet di strutture
geometriche e propriet statistiche, tanto da fornire almeno se non proprio

1
Boltzmann (1999).
2
Arnold (2004).





Turchetti: Dai modelli fisici ai sistemi complessi



103




un quadro teorico per lo meno metafore utili per la descrizione dei sistemi
complessi. Anche se non c unanime consenso ci sembra appropriato
definire complessi non tanto sistemi caratterizzati da interazioni non lineari
tra i suoi componenti e da propriet emergenti, che rientrano a pieno titolo
nel quadro dei sistemi dinamici, ma piuttosto i sistemi viventi o quelli di
vita artificiale che ne condividono le propriet essenziali
3
.
Tra queste possiamo certamente annoverare la capacit di gestire la
informazione e di replicarsi, consentendo tramite un meccanismo di
mutazione e selezione di dare origine a strutture di crescente ricchezza
strutturale e dotate di capacit cognitive sempre pi elaborate. Una teoria
dei sistemi complessi non esiste ancora, anche se la teoria degli automi
sviluppata da Von Neumann
4
e la teoria della evoluzione di Darwin
5
ne
possono fornire alcuni pilastri importanti. Recentemente la teoria delle reti
stata utilizzata con successo per descrivere le propriet statistiche delle
connessioni tra gli elementi costitutivi (nodi) di un sistema complesso
6
. Le
connessioni che non sono n completamente casuali n completamente
gerarchiche, consentono una sufficiente robustezza rispetto a
malfunzionamenti o danneggiamenti dei nodi unita a un adeguato livello di
organizzazione per consentirne un funzionamento efficiente. Nei sistemi
fisici il modello base un insieme di atomi o molecole interagenti, che
danno luogo a strutture diverse quali un gas, un liquido o un cristallo, come
risultato di propriet emergenti. Nello stesso modo per i sistemi complessi
possiamo proporre un sistema automi interagenti come modello base. Le
molteplici forme che il sistema assume anche in questo caso vanno
considerate come propriet emergenti del medesimo sostrato al mutare delle
condizioni esterne e frutto delle i replicazioni, ciascuna delle quali introduce
piccole ma significative varianti. Questa la grande differenza tra un
sistema fisico ed un sistema complesso: il primo fissate le condizioni esterne
ha sempre le medesime propriet, il secondo invece cambia con il fluire del
tempo perch la sua organizzazione interna muta non solo al cambiare di
fattori ambientali ma anche con il succedersi delle generazioni. C dunque
un flusso di informazione che cresce con il tempo e che consente agli
automi costituenti ed alla intera struttura di acquisire nuove capacit. Questo
aumento di ordine e ricchezza strutturale avviene naturalmente a spese
dellambiente circostante, in modo che globalmente i la sua entropia cresce
in accordo con la seconda legge della termodinamica. In assenza di una

3
Cfr. Turchetti (2003), Turchetti (2007), Giorgini, Turchetti (2007), Parisi (2000).
4
Von Neumann (1963, 316).
5
Darwin (1859).
6
Barabasi (2002).





Complessit e riduzionismo
104




teoria formalizzata paragonabile a quella dei sistemi dinamici, per i sistemi
complessi si possono fare osservazioni e misure, sia puntuali sui costituenti
elementari e sulle loro connessioni, sia globali sullintero sistema, oppure
costruire modelli suscettibili di essere validati attraverso la simulazione. Se
di un sistema si riesce infatti a fornire una descrizione sufficientemente
dettagliata, poi possibile osservare come questo si comporti traducendo le
regole in algoritmi e costruendo quindi una versione virtuale, anche se
semplificata del sistema stesso. Il passaggio pi difficile il confronto tra il
sistema simulato ed il sistema vero, che passa necessariamente attraverso la
valutazione di una numero limitato di parametri che ne caratterizzino e
propriet. La codifica del progetto una propriet cruciale dei sistemi
complessi perch questa si realizza con un dispendio di massa ed energia
incomparabilmente pi piccolo rispetto a quello necessario per realizzare
lintera struttura; nello stesso tempo apportare piccole modifiche ad un
progetto rapido ed economico. In questo processo che comporta la
continua introduzione di varianti si aprono molteplici strade e con lo
scorrere del tempo si realizza una storia in modo unico e irripetibile.
Anche il susseguirsi di eventi fisici caratterizzati da processi
irreversibili e dalla presenza di molteplici biforcazioni da origine ad una
storia che non si pu percorrere a ritroso, n riprodurre qualora fossimo in
grado ripartire dalle stesse condizioni iniziali. Tuttavia esiste una differenza
profonda tra la storia di un sistema fisico come il globo terrestre e la storia
della vita. La prima registra i molteplici cambiamenti che ha subito la
superficie del nostro pianeta ove montagne e mari nascono e scompaiono
senza un chiaro disegno soggiacente. La storia della vita caratterizzata da
una progressiva crescita della ricchezza strutturale e funzionale e
accompagnata da una crescita della complessit progettuale. La
rappresentazione di questa storia prende la forma di un albero con le sue
ramificazioni che mostra la continua diversificazione delle strutture e la loro
evoluzione verso forme sempre pi avanzate. La direzione in cui scorre il
tempo ben definita: le strutture affinano le capacit sensoriali mentre
cresce la potenza degli organi che elaborano la informazione. Un sistema
complesso anche caratterizzato da un molteplicit di scale, tanto pi alta
quanto pi si sale sulla scala evolutiva. La ragione che il procedere verso
strutture sempre pi elaborate avviene utilizzando altre strutture come
mattoni per cui limmagine che si pu fornire quella di una rete di automi
a pi strati: partendo dal basso una rete con le sue propriet emergenti
diventa il nodo di una rete di secondo livello, cio un automa di secondo
livello che interagisce con altri automi dello stesso tipo e cos via. Nei
sistemi inorganici, dove non esiste un progetto, si distinguono di norma solo





Turchetti: Dai modelli fisici ai sistemi complessi



105




due livelli, quello dei costituenti elementari e quello su scala macroscopica.
I sistemi fisici sono riconducibili a poche leggi universali, che governano i
costituenti elementari della materia, ma il passaggio dalla descrizione dalla
piccola alla grande scala impervio e consentito soltanto dalla simulazione
numerica, quando ci allontaniamo dalle situazioni pi semplici caratterizzate
da un equilibrio statistico. I limiti che il disegno riduzionista incontra gi per
i sistemi fisici diventano decisamente pi forti nel caso dei sistemi
complessi.
2. Il mondo fisico ed i sistemi dinamici
Ogni sistema materiale percepibile dai nostri sensi, amplificati dagli
strumenti di cui disponiamo oggetto di studio della Fisica, scienza che
ricerca leggi semplici ed universali, per descrivere in linguaggio matematico
i risultati di esperimenti riproducibili. La nostra capacit di osservazione e
misura andata continuamente aumentando da Galileo in poi ed oggi siamo
in grado osservare gli atomi o le galassie al limite delluniverso. Le grandi
macchine acceleratrici, che sono una sorta di supermicroscopi, consentono
di osservare il comportamento dei costituenti elementari della materia e una
convinzione diffusa che se si arriva a conoscere le strutture ultime non
ulteriormente frazionabili come potrebbero essere le stringhe, il percorso
della fisica ha raggiunto il suo termine se nel contempo tutte le interazioni
conosciute vengono unificate dando origine alla teoria finale. Questa visione
esasperatamente riduzionista, che sottende la ricerca della teoria finale,
suppone che noti i principi primi sia solo un esercizio matematico derivare
le propriet di un qualunque sistema fisico. In modo non dissimile Laplace
pensava che fosse possibile prevedere levoluzione delluniverso a patto di
conoscerne le condizioni iniziali, usando le leggi della meccanica che
rappresentavano al suo tempo la teoria ultima della fisica. Lintero universo
era visto come un gigantesco meccanismo ad orologeria, il cui moto poteva
essere seguito nel tempo senza limite alcuno, cos come accade per un
pendolo od un pianeta che su muove su di una ellissi kepleriana. Oggi
sappiamo che la prevedibilit di un generico sistema meccanico inficiata
dalla presenza di moti instabili, per cui laccuratezza richiesta sulle
condizioni iniziali oltrepassa rapidamente quella raggiungibile tramite una
qualsiasi misura. La formulazione iniziale della meccanica aveva consentito
di riprodurre le leggi di Keplero, che descrivono moti periodici nei quali un
errore iniziale si traduce in una crescita lineare della differenza di fase. La
quasi coincidenza del sole con il sistema del centro di massa rispetto ad un





Complessit e riduzionismo
106




qualsiasi pianeta e il modesto effetto delle interazioni dei pianeti tra loro
avevano ricondotto il problema a quello di un moto in un campo centrale,
che Newton aveva risolto partendo dalla sua legge di gravitazione
universale. Una stella con un pianeta descrive di fatto anchesso una piccola
ellissi rispetto al centro di massa, rivelabile tramite misure spettroscopiche e
costituisce un valido metodo per scoprire pianti extrasolari. La meccanica
newtoniana si prestava a descrivere non solo il moto dei corpi celesti ma
anche di oggetti sulla terra come un pendolo o una palla di cannone. Le
soluzioni dei problemi studiati venivano ricondotte al calcolo di opportuni
integrali da cui lappellativo di integrabili. Come per il moto di un pianeta
attorno al sole soluzioni risultavano combinazioni di moti periodici e
piccole variazioni delle condizioni iniziali comportavano crescite lineari
degli errori in fase. I moti disordinati come quelli delle molecole di un gas
erano stati trascurati fino al momento in cui Boltzmann aveva scoperto che
potevano essere analizzati attraverso una lettura di tipo statistico. Nel
frattempo il problema dei tre corpi era rimasto irrisolto e la ragione fu
scoperta da Poincar
7
, il quale dimostr la esistenza di orbite, che analizzate
tramite una opportuna sezione, mostravano un groviglio inestricabile
(intreccio omoclino), vedi figura 1, i cui punti di intersezione erano in
corrispondenza con una successione di numeri casuali. Queste orbite sono
associate alla presenza di punti di equilibrio instabili e causano una
divergenza esponenziale nel tempo quando si parte da due condizioni
iniziali vicine. Le condizioni per la genesi del caos sono la divergenza
rapida delle orbite ed uno spazio delle fasi di volume finito, perch in questo
caso le orbite che si allontanano sono costrette a ripiegarsi formando un
groviglio ove il moto appare decisamente casuale. I moti caotici sono
apparsi in un contesto, quello della meccanica celeste, in cui lordine aveva
regnato sovrano. stato poi provato che un sistema meccanico generico
(scelto a caso) presenta equilibri instabili e moti caotici che lo rendono non
integrabile. Di qui la necessit di introdurre una analisi di tipo statistico in
quanto lanalisi della singola orbita, di cui si suppongano note le condizioni
iniziali con infinita precisione, non presenta alcun interesse in quanto una
infima perturbazione iniziale conduce molto presto a risultati
completamente diversi.
Questa fusione del determinismo della meccanica di Newton o di
Hamilton con la teoria della probabilit, nata per interpretare i giochi di
azzardo ed applicata alle scienze attuariali, condusse alla formulazione della
teoria dei sistemi dinamici, teoria che trascende i limiti della meccanica per

7
Poincar (1892-1899).





Turchetti: Dai modelli fisici ai sistemi complessi



107




abbracciare i modelli matematici formulati in qualunque scienza dove sia
definibile uno spazio degli stati, una evoluzione deterministica nel tempo ed
una misura di probabilit invariante rispetto a questa evoluzione. Oggi
spesso si parla, di teoria del caos
8
, riferendosi appunto allo schema
interpretativo di fenomeni in cui piccole variazioni conducono a differenze
vistose. In tale contesto si cita leffetto farfalla che assolutamente
paradossale perch un battito dali che comporta un minimo dispendio di
energia non pu scatenare un uragano la cui energia pu superare quella di
una deflagrazione nucleare. La teoria dei sistemi dinamici consente di
analizzare processi in cui lo stato presente correlato allo stato futuro solo
per un intervallo di tempo molto breve, vale a dire in cui la memoria dello
stato si perde molto rapidamente. Pur tuttavia fissate le regole del gioco tutta
la storia codificata nella condizione iniziale, mentre in un processo
puramente aleatorio come il lancio di una moneta ogni evento
assolutamente imprevedibile. Il problema pratico si sposta quindi sulla
quantit di informazione di cui possiamo disporre. La teoria matematica si
fonda sulla ipotesi del continuo per lo spazio degli stati che vengono
rappresentati tramite numeri reali, ciascuno dei quali richiede una quantit
di informazione infinita Il paradosso del caos deterministico risiede proprio
nellapparato matematico su cui si fonda e sulla ipotesi implicita che la
informazione disponibile sempre infinita. Un sistema dinamico dunque
caratterizzato da uno spazio degli stati E, un flusso S
t
, ed una misura
invariante di probabilit . flusso che soluzione della equazione
differenziale
dx(t) / dt = (x(t)) x(t)= S
t
(x) x(0)=x
gode della propriet di gruppo S
t
(S
t
)=S
t+t
mentre la propriet di invarianza
della misura si scrive (S
t
(A))= (A) per un qualsiasi insieme A dello
spazio delle fasi. Si considerano anche sistemi a tempo discreto nei quali
lorbita una successione discreta di punti x
0
=x, x
1
=M(x), ...., x
n+1
=M(x
n
)
ed M una mappa che corrisponde ad esempio alla evoluzione su di un
periodo se il sistema dato ha una dipendenza periodica dal tempo, oppure
alla evoluzione approssimata su un intervallo di tempo t che approssima la
evoluzione esatta di un sistema continuo M(x)= x+t (x). Lorbita di una
mappa si calcola esattamente perch comporta solo la valutazione di una
applicazione definita sullo spazio delle fasi ed anche nel caso del calcolo
numerico lunico errore introdotto solo quello di arrotondamento. Per i

8
Ruelle (2003).





Complessit e riduzionismo
108




sistemi a tempo continuo (x) un campo vettoriale, di cui le traiettorie
sono le linee di forza essendo in ogni punto tangenti ad esso. Una funzione
che risulti invariante lungo una qualsiasi traiettoria H(x(t))=H(x) definisce
una famiglia di superfici H(x)=c ed una raiettoria che ha origine su un punto
di una di queste superfici vi appartiene interamente. Se lo spazio delle fasi
ha dimensione due lintegrale primo energia per forze posizionali
individua la traiettoria. Detto x=(x,v) il vettore nello spazio delle fasi ,
=(v, F(x)/m) e V(x) il potenziale tale che V(x)=-F(x), le equazioni del
moto e lintegrale primo sono
dx/dt= v dv/dt= F(x)/m H = mv
2
/2 + V(x)
Nel caso delloscillatore armonico F=-m
2
x le orbite sono ellissi, che con
una semplice trasformazione di scala diventano cerchi su cui il moto
uniforme. In questi sistemi il flusso conserva le aree e la misura invariante
(A) definita come larea di A divisa per larea di tutto lo spazio delle fasi
che potremmo scegliere come H E. Tutte le orbite chiuse si trasformano in
circonferenze, su cui il moto uniforme, tramite una trasformazione che
conserva le aree. Le coordinate naturali son langolo e lazione J=R
2
/2
dove R il raggio della circonferenza. Questa descrizione si estende ai
sistemi integrabili con n>1 gradi di libert, che si presentano come rotazioni
uniformi su n circonferenze. Se n=2 lorbita nello spazio degli angoli
(quadrato di lato 2 con i lati opposti identificati detto toro) data da
1
=
1

t+
1
(0) e
2
=
2
t+
2
(0) risulta chiusa se il rapporto
1
/
2
tra le frequenze
un numero razionale, altrimenti lorbita non si chiude ma copre densamente
tutto lo spazio. Per n>2 la situazione simile anche se la casistica pi
ricca. Quando uno di questi sistemi viene perturbato ,come accade quando
accendiamo la interazione tra i pianeti che si muovono su orbite kepleriane,
le orbite cambiano e le propriet aritmetiche delle frequenze giocano un
ruolo cruciale in questo cambiamento. Nel caso n=2 ad esempio se le
frequenze sono uguali o in rapporto razionale allora in un piano di fase
lorbita diventa simile a quella di un pendolo.





Turchetti: Dai modelli fisici ai sistemi complessi



109






Figura 1. Intreccio omoclino nella mappa di Hnon.

Tuttavia le orbite che si dipartono dai punto di equilibrio instabile non si
incontrano come accade nel pendolo ma si intersecano e danno luogo quindi
ad infinite intersezioni successive generando quello che Poincar chiama
intreccio omoclino. In questa regione il moto caotico in quanto la
divergenza delle orbite vicine esponenziale e le intersezioni si possono
mettere in corrispondenza con una successione binaria casuale come quella
che caratterizza i lanci di una moneta. La figura 1 mostra il meccanismo
dellintreccio omoclino



Figura 2. Isole e invarianza di scala nella standard map.

Il quadro che emerge quello di una compresenza di orbite regolari e di
orbite caotiche che si alternano creando strutture geometriche complesse in
cui per si riscontra una invarianza approssimata per trasformazioni di scala
come accade nei cosiddetti frattali
9
. Se si ingrandisce un particolare, come
mostra la figura 2, si ritrovano strutture simili a quelle che si hanno nello
spazio delle fasi iniziale e questo resta vero se loperazione viene ripetuta un
numero di volte arbitrario.

9
Mandelbrot (1982).





Complessit e riduzionismo
110






2.2 Indicatori dinamici

Quello che matematicamente possiamo descrivere in modo esauriente sono i
sistemi regolari o integrabili ed i sistemi completamente caotici. Per i
sistemi intermedi ci non accade ma possibile trovare degli indicatori
locali o globali che specifichino in modo quantitativo la natura di una
singola orbita o dellintero spazio delle fasi. La divergenza di due orbite
vicine specifica il carattere locale della dinamica che risulta regolare nel
caso di crescita lineare, caotica nel caso di crescita esponenziale. Al tipo di
divergenza legato il tempo di predicibilit
Moto regolare || x(t) || ~ (1+t) t
pred
~ 1/
Moto caotico || x(t) || ~ exp(t) t
pred
~
-1

log(1/)
In un sistema caotico il tempo di predicibilit aumenta cos lentamente con
1/ da renderlo totalmente imprevedibile. Una propriet globale che
caratterizza i sistemi caotici il mescolamento ossia il fatto che i punti di un
qualsiasi insieme vengono sparpagliati uniformemente su tutto lo spazio
delle fasi. In termini matematici per un sistema a tempo discreto (M
-
n
(A)B) tende a (A) (B) con rapidit esponenziale quando n . Una
formulazione equivalente di questa propriet espressa dalla perdita rapida
di memoria delle condizioni iniziali. Se con <f(x)> = f(x)d(x) indichiamo
la media di una funzione definita sullo spazio delle fasi allora <f(x
n
)g(x)>
tende a <f(x)><g(x)> con rapidit esponenziale quando n . Se pensiamo
a f(x
n
) e g(x) come variabili aleatorie questo significa che al crescere di n
esse diventano indipendenti come conseguenza del fatto che lo diventano x
n
ed x. In generale la rapidit con cui decadono le correlazioni definite da
C(n)= <f(x
n
)g(x)> - <f(x)><g(x)> misura il grado di caoticit. Per i sistemi
regolari in cui la frequenza varia il decadimento delle correlazioni segue una
legge di potenza C(n) ~ 1/n.






Turchetti: Dai modelli fisici ai sistemi complessi



111







Figura 3. Mescolamento locale e filamentazione.

Questo discende dal mescolamento locale, fenomeno noto come
filamentazione per i fluidi, vedi figura 3, che si verifica facilmente nel caso
di una mappa prototipo x
n+1
= x
n
+y
n
mod 1, y
n+1
=y
n
. Quindi per un sistema
regolare la divergenza delle orbite || x
n
|| lineare in n mentre le
correlazioni decadono come 1/n, per un sistema caotico la divergenza va
come e
n
mentre le correlazioni decadono come e
-n
. Un altro indicatore
dato dallo spettro dei tempi di ricorrenza in un insieme A. Sia
A
(x) il tempo
di ricorrenza, definito come il minimo valore di n per cui x
n
torna in A cui
appartiene x
0
=x, e sia <
A
> il tempo medio che vale 1/ (A) se il sistema
ergodico ossia se lorbita densa sullo spazio delle fasi. I tempi di ritorno
valutati per tutti i punti di A hanno una distribuzione F
A
(t)= (A
>t
)/ (A)
dove A
>t
linsieme di tutti i punti per cui
A
(x)/ <
A
> maggiore di t. Lo
spettro che otteniamo nel limite (A) 0 dato genericamente da F(t)= e
-t

se il sistema caotico (mescolante) mentre per un sistema regolate
otteniamo F(t)= c/t
2
. Per sistemi con componenti regolari e caotiche si
dimostra che nelle regioni di confine lo spettro una combinazione w
1
e
-t

+w
2
/t
2
dove i coefficienti dipendono dal peso relativo delle due regioni nel
dominio A
10
. Questo risultato significativo perch mostra che possibile
analizzare sistemi di transizione ove orbite regolari e caotiche coesistono
determinandone il peso relativo. Per questi sistemi spesso lunica indagine

10
Hu, Rampioni, Rossi, Turchetti, Vaienti (2004).





Complessit e riduzionismo
112




possibile di tipo numerico e si pone il problema della affidabilit dei suoi
risultati. Una risposta in tal senso viene da un altro indicatore la fidelity che
una correlazione tra unorbita ed unorbita perturbata ossia F(n)= <f(M
n
(x)
g(M
n

(x)>-<f(x)><g(x)>. La perturbazione di norma di tipo stocastico


M

(x) = M(x) + e la media fatta sia sullo spazio delle fasi sia sul
processo stocastico. Si provato che nel caso di un sistema regolare la
fidelity va a zero con una legge esponenziale in n mentre nel caso di un
sistema caotico (mescolante) il decadimento superesponenziale
11
. Questi
risultati analitici, confermati da simulazioni numeriche, sono stati
confrontati con quelli ottenuti quando alla perturbazione stocastica si
sostituisce la perturbazione dovuta allarrotondamento numerico, inerente
ad ogni calcolo effettuato con stringhe binarie di lunghezza fissata. La
differenza sostanziale che mentre il rumore incorrelato lerrore di
arrotondamento correlato: per i sistemi regolari si osserva quindi un
decadimento molto pi lento, a potenza anzich esponenziale
12
, mentre per
sistemi caotici resta praticamente invariato il decadimento superesponen-
ziale. Questo significa che nei calcoli numerici rispetto ad una perturbazione
stocastica di pari ampiezza lerrore di arrotondamento ha un effetto molto
pi debole per un sistema regolare mentre i due sono equivalenti per un
sistema caotico. Si noti che in questo caso si confrontano orbita esatta ed
orbita perturbata con lo stesso punto iniziale per cui il risultato conferma
che le simulazioni numeriche sono affidabili, per lanalisi anche quantitativa
di un sistema dinamico, qualunque sia la sua natura. Si potrebbe anche
concludere che essendo la precisione di qualsiasi misura di una grandezza
fisica finita ed essendo finita la lunghezza di successioni di simboli
fisicamente gestibili, i modelli sviluppati su una calcolatore sono addirittura
pi vicini alla realt fisica di quanto non siano i modelli matematici basati
sui numeri reali, che presuppongono che la quantit di informazione
gestibile sia infinita.
3. Sistemi complessi ed informazione
Nellintrodurre i sistemi complessi abbiamo sottolineato il ruolo che
linformazione assume in quel contesto ed quindi opportuno ricordare che
una esiste teoria statistica della informazione e quali sono i suoi fondamenti.
La teoria indica quale sia la codifica ottimale di un testo senza affrontare il
problema della sua struttura grammaticale n tanto meno del suo significato.

11
Zanlungo, Turchetti, Vaienti, Zanlungo (2009).
12
Turchetti, Vaienti, Zanlungo (2010).





Turchetti: Dai modelli fisici ai sistemi complessi



113




Le motivazioni che portarono Shannon
13
ad affrontare il problema della
codifica dei dati e della loro trasmissione venivano non solo dalla ingegneria
ma anche dalla neurobiologia e dalle scienze del linguaggio.
Linformazione, sia essa quella di un testo letterario o di un genoma, si
codifica tramite una successione di simboli, appartenenti ad un alfabeto
finito. La frequenza con cui un simbolo compare in una successione di
lunghezza n diventa la sua probabilit quando n tende allinfinito.
Considerando ad esempio una successione binaria dove 0 e 1 hanno
probabilit p
0
e p
1
il numero di volte che essi compaiono in una successione
di lunghezza n diventano n
0
=p
0
n e n
1
=p
1
n per n grande ed il numero di
successioni distinte N(n)= n!/( n
0
! n
1
!). Come in meccanica statistica si
introduce una entropia S(n)= log N(n) mentre la entropia di Shannon H
definita dal limite di S(n)/n per n. Si trova che H= - p
0
log p
0
p
1
log p
1
dove p
0
+ p
1
=1 ed il massimo, che si raggiunge per p
0
= p
1
=1/2, vale log 2.
Si definisce compressibilit C= H/H
max
e esiste una codifica ottimale in cui
la successione di lunghezza n sostituita da una successione di lunghezza
nC.

Nelle teorie fisiche sia a livello classico sia a livello quantistico la
informazione non entra mai in modo diretto perch si assume valida
lipotesi del continuo e quindi implicitamente che sia accessibile una
informazione infinita. Tuttavia i sistemi fisici possono gestire solo quantit
finite di informazione. Il numero di operazioni eseguite per unit di tempo
proporzionale alla energia mentre il numero di bit registrabili
proporzionale al volume nello spazio delle fasi. Rinunciare al continuo
significa rinunciare ai gruppi di continui di simmetria e quindi ai sistemi
integrabili.
Matematicamente si pu simulare leffetto della precisione finita
mantenendo i numeri reali ed introducendo perturbazioni stocastiche la cui
ampiezza pari allerrore con cui il numero noto.
Nei sistemi complessi la informazione gioca un ruolo attivo perch
interviene nella codifica del progetto da cui scaturisce un essere vivente. La
materia vivente ed i suoi costituenti obbediscono naturalmente alle leggi
della fisica, ma al tempo stesso le trascendono. Innanzi tutto non possibile
isolare un essere vivente dallambiente esterno, con cui esiste uno scambio
continuo di energia,materia ed informazione. Per questa ragione la crescita
di entropia si verifica soltanto se lo isoliamo dallambiente, ma isolarlo
significa togliergli la vita. I processi che avvengono negli esseri viventi sono
prossimi ad un equilibrio statistico, ma sono le piccole variazioni a

13
Shannon (1948).





Complessit e riduzionismo
114




consentirne lespletamento di molteplici funzioni. dunque lambiente con
la sua variabilit con le sue microfluttuazioni di natura aleatoria che
determina la strada che vien presa ad ogni bivio e lungo la quale si
costruisce la storia di ciascun individuo. Nello stesso tempo si osserva un
elevato livello di organizzazione e sinergia nel modo di operare di sistemi
come quello nervoso o immunitario che riscono a fornire risposte efficaci e
coerenti agli stimoli esterni. stato detto che la vita si sviluppa al margine
del caos
14
per evidenziare che lo sviluppo di azioni coordinate, la armonica
cooperazione tra le componenti di un sistema sono condizione necessaria
(ma non sufficiente) per la vita. Solo in presenza di piccoli disturbi e di
variazioni impreviste delle condizioni ambientali possono avvenire quei
cambiamenti impercettibili che ne garantiscono il mantenimento ed il
progredire, su scale di tempo pi lunghe, verso forme sempre pi evolute.
Le basi teoriche per lo studio di questi sistemi sono state poste da Von
Neumann con la sua teoria degli automi, intesi come unit dotate di una
componente fisica, che obbedisce alle leggi della dinamica fisica, e di una
componente cognitiva, capace di elaborare la informazione, memorizzarla e
di costruire strategie. Lo stesso autore ha poi dimostrato lesistenza di
automi capaci di riprodursi, purch esista una direttiva ed una scorta di
componenti
15
e che essi possono essere robusti anche se i loro componenti
sono suscettibili di malfunzionamenti
16
. In questi teoremi si ribadisce il
ruolo del progetto nella replicazione, prefigurando la codifica nel genoma, e
il ruolo della ridondanza nel garantire il buon funzionamento anche in
presenza di guasti localizzati. Il passo successive consiste nel capire come
un insieme di automi possano operare insieme costituendo a loro volta una
unit organizzata. Non necessario che vi sia una direttiva esterna, perch il
semplice fatto di essere insieme interagendo e comunicando pu sviluppare
nuove propriet emergenti nellinsieme di automi. Laltro pilastro teorico
per i sistemi complessi costituito dalla teoria delle evoluzione di Darwin:
la possibilit di cambiamento e selezione consente lo sviluppo di forme
sempre pi elaborate. Un aspetto molto studiato recentemente riguarda il
tipo di connessioni che si stabiliscono tra i vari componenti. In molteplici
sistemi complessi la distribuzione del numero di connessioni segue una
legge di potenza: questo significa che non c una scala caratteristica e che
vi sono pochi nodi molto connessi e molti nodi poco connessi. Se l numero
di connessioni sostituito da un indicatore di rango ecco che si allarga il

14
Kauffman (1993).
15
Von Neumann (1963, General and logical theory of automata, 316).
16
Von Neumann (1963, Probabilistic logic from unreliable components, 329).





Turchetti: Dai modelli fisici ai sistemi complessi



115




numero di sistemi che presentano leggi di potenza
17
. Un precursore stato
Pareto per i sistemi sociali ed in particolare per la distribuzione del reddito
in una popolazione. Come nei sistemi dinamici il caos o la casualit
conducono a leggi esponenziali mentre la presenza di ordine e gerarchia pur
in presenza di relazioni aleatorie portano a leggi di potenza. Lanalisi delle
reti per i sistemi complessi suggerisce lesistenza di forme di organizzazione
gerarchica presenti anche in un contesto in cui molte relazioni sono di tipo
puramente casuale.
Lanalogia con le legge statistiche trovate per i sistemi dinamici sorge
quindi spontanea: le correlazioni o lo spettro dei tempi di ritorno in
prossimit dello stato iniziale decadono a potenza quando il sistema ha
comportamenti ordinati e persiste anche in presenza di qualche forma di
caoticit. Dunque ordine e gerarchia conducono a code persistenti, sintomo
di una memoria che non svanisce rapidamente o della presenza di sporadici
nodi con cui tanti altri sono in contatto. Lo studio di un sistema complesso
pu essere affrontato costruendone un modello basato su un sistema di
automi interagenti e simulandone il comportamento su di un calcolatore ed
analizzandone i risultati dal punto di vista statistico in modo da rivelarne
alcune propriet su grande scala. I contesti in cui i abbiamo sviluppato dei
modelli sono quelli della mobilit e del sistema immunitario. Il caso pi
semplice quello di veicoli che si muovono su una strada avendo la
percezione della posizione di chi precede e rispettando il vincolo di
mantenere una distanza di sicurezza per evitare collisioni. Per basse densit
il moto regolare e viene descritto da una equazione delle onde nel limite
del continuo ma al crescere della densit nascono delle instabilit che creano
arresti e ripartenze, come spesso si sperimenta quando ci si muove in
autostrada
18
. Il moto pedonale richiede un modello bidimensionale, che
vede, nella sua versione pi semplice, gli automi rappresentati come
dischetti rigidi dotati di percezione visiva entro un certo angolo visuale. La
vista ha conseguenze importanti tra cui quello di far perdere il terzo
principio della dinamica perch non si ha reciprocit nelle azioni in quanto
lautoma A pu vedere lautoma B, mentre B non vede A. Quinti mentre A
viene respinto da B per evitare la collisione non esiste una corrisponde
azione su B da parte di A. Il problema dei due automi riconducibile a
quadrature e si determinano per via analitica degli equilibri dinamici
semplici. Nel caso di molti automi la perdita del principio di azione e
reazione causa un effetto di tipo dissipativo ed necessario introdurre la

17
Zipf (1949).
18
Helbing (2001).





Complessit e riduzionismo
116




memoria degli stati passati ed uno previsione sullo stato futuro per
compensarla consentendo al sistema di raggiungere un equilibrio statistico
19
.
Se si introducono due popolazioni di automi si ottengono diverse
configurazioni di equilibrio a seconda della natura della loro interazione
sociale che pu essere repulsiva o attrattiva. Per il sistema immunitario sono
stati formulati molteplici modelli in cui intervengono i linfociti T, gli
antigeni, la cellule APC ed in cui si stabiliscono precise regole dettate dalla
nostra conoscenza sul sistema a livello dei suoi costituenti elementari. In
questo caso interviene una molteplicit di automi con caratteristiche diverse
perch molteplici sono gli antigeni e i linfociti T, che dopo aver incontrato
lantigene diventano cellule di memoria. La dinamica su un reticolo in cui
queste popolazioni si muovono consente di riprodurre alcuni effetti come la
risposta secondaria ad un attacco antigenico che molto pi efficace per la
presenza di cellule memoria
20
. Si possono scrivere equazioni di campo
medio che governano levoluzione del numero di individui in ciascuna
popolazione trascurando la loro distribuzione spaziale ed introducendo
anche componenti stocastiche per tenere conto delle fluttuazioni interne ed
esterne al sistema. Modelli semplici consentono di correlare dati sulle
popolazioni cellulari quali i linfociti vergini con dati demografici sulla base
di ipotesi quali lesaurimento di questa popolazione come causa di morte
21
.
Pur validi per descrivere situazioni specifiche e per correlare dati
osservativi, attraverso i vincoli stringenti di un quadro matematico i modelli
non ci forniscono nuovi principi primi. semmai vero che i modelli vanno
costruiti rispettando i principi generali gi acquisiti. Per ora dobbiamo
limitarci alla teoria degli automi ed alla teoria della evoluzione per
sviluppare modelli a partire dalle propriet note dei costituenti elementari di
un sistema complesso osservato ad una data scala. Non so se sar possibile
andare oltre come livello di conoscenza in un prossimo futuro, per se non
ci poniamo come obiettivo la ricerca del vero, dellassoluto ma soltanto di
metodologie che possono fornire descrizioni efficaci della realt, allora
sviluppare modelli pu essere gi soddisfacente. Se quindi abbassiamo il
tiro rispetto alla ricerca della teoria finale cui la fisica aspira, diventa
possibile affinare la nostra conoscenza sui sistemi complessi utilizzando la
matematica come strumento di sintesi e di conoscenza, perch modellizzare
e simulare comunque la base di ogni processo conoscitivo.

19
Turchetti, Zanlungo (2007).
20
Zanlungo, Turchetti (2007).
21
Luciani et al. (2001).





Turchetti: Dai modelli fisici ai sistemi complessi



117




Riferimenti
Arnold V. I., 2004, Metodi Matematici della Meccanica Classica Editori
Riuniti, Roma.
Barabasi A., 2002, Statistical mechanics of complex networks, Reviews of
Modern Physics 70, 223.
Boltzmann L., 1999, Modelli matematici, fisica e filosofia, Bollati
Boringhieri, Torino.
Darwin, C., 1859, Lorigine della specie, BUR Biblioteca Universale
Rizzoli, Milano 2009.
Giorgini G., Turchetti G., 2007, From Newton-Boltzmann paradigms to
complexity: a bridge to bio-systems in The Science of Complexity:
chimera or reality? Ed. P. Freguglia, Esculapio, Bologna.
Helbing, D., 2001, Traffic and related self driven many particle systems,
Reviews of Modern Physics 73, 1067-1114.
Hu H., Rampioni A., Rossi L., Turchetti T., Vaienti S., 2004, Statistics of
Poincar recurrences for area preserving maps with integrable and
ergodic components, Chaos 14, 160-171.
Kauffman, A., 1993, The Origins of Order: Self-Organization and Selection
in Evolution Oxford University Press, New York, Oxford.
Luciani F. et al., 2001, A stochastic model for CD8
+
T cells dynamics in
human immunosenescence : implications for survival and longevity,
Journal of Theoretical Biology 213, 587-597.
Mandelbrot B., 1982, The Fractal Geometry of Nature, W. H. Freeman &
C., New York.
Parisi, D., 2000, Una nuova mente, Codice edizioni Hoepli, Torino.
Poincar H., 1892-1899, Les mthodes nouvelles de la mcanique cleste
Gauthier-Villars et fils, Paris.
Ruelle D., 2003, Caso e caos, Bollati Boringhieri, Torino.
Shannon, C. E., 1948, A Mathematical Theory of Communication, Bell
System Technical Journal, vol. 27, pp. 379-423, 623-656, July,
October, 1948.
Turchetti G., 2003, From Dinamical systems to complex systems
Determinism Olism and Complexity Conferenza Arcidosso 2-8
settembre 2001, Ed. P. Freguglia et al., Kluwer Academic, New York.
Turchetti G., 2007, Dynamical modeling of complex systems: a microscopic
approach, BIOCOMPLEXITY Ed. G. Castellani, E. Lamberti, C.
Franceschi, V. Fortunati, Bologna University Press,Bologna.
Turchetti, G., Zanlungo, F., 2007, Dynamics and thermodynamics of a gas
of automata, Europhysics Letters 78, 58003.





Complessit e riduzionismo
118




Turchetti G., Vaienti S. and Zanlungo F., 2010, Relaxation to the asymptotic
distribution of global errors due to round off, Europhysics Letters
89, 40006-40010.
Von Neumann, J., 1963, Collected works, Vol V, Pergamon Press.
Zanlungo, F., Turchetti, G., 2007, An automata based microscopic model
inspired by the clonal expansion in Mathematical Modeling of
Biological Systems II, A. Deutsch et al ed., Birkhhause, Boston, pp.
133-144.
Zanlungo Ph. M., Turchetti G., Vaienti S., Zanlungo F., 2009, Error
distribution in randomly perturbed orbits, Chaos 19, 4, 043118.
Zipf, G. K., 1949, Human Behaviour and the Principle of Least-Effort,
Addison-Wesley, Cambridge, Massachusetts.







Sergio Chibbaro, Lamberto Rondoni, Angelo Vulpiani
Considerazioni sui fondamenti della Meccanica Quantistica, in Complessit e
riduzionismo, pp. 117-131
Published by Isonomia, Rivista online di Filosofia Epistemologica ISSN 2037-4348
Universit degli Studi di Urbino Carlo Bo
http://isonomia.uniurb.it/epistemologica

119




Considerazioni sui fondamenti
della Meccanica Statistica
Sergio Chibbaro

Universit Pierre et Marie Curie
chibbaro@lmm.jussieu.fr
Lamberto Rondoni

Politecnico di Torino
lamberto.rondoni@polito.it
Angelo Vulpiani
Universit di Roma La Sapienza
angelo.vulpiani@roma1.infn.it
Alla memoria di Carlo Cercignani
A differenza della meccanica quantistica, i cui fondamenti sono sempre stati
al centro di un ininterrotto dibattito, gli aspetti concettuali della meccanica
statistica non hanno attratto interessi cos vasti; tra le eccezioni citiamo il
bel libro di Emch e Liu
1
. In questo breve contributo discuteremo alcuni
problemi concettuali della meccanica statistica, in particolare il ruolo del

1
Emch, Liu (2001).





Complessit e riduzionismo
120




caos
2
e lemergenza di propriet collettive che appaiono quando il numero
delle particelle del sistema molto grande
3
.


1. Dal microscopico al macroscopico

I sistemi macroscopici sono composti da un numero molto elevato
(dellordine del numero di Avogadro NA 6.02 10
23
) di particelle che, sotto
opportune condizioni
4
, seguono le leggi di Newton della meccanica classica.
In questa decrizione ogni particella rappresentata dalla sua posizione qi e
la sua velocit vi, che evolvono nel tempo secondo le leggi di Newton. In
meccanica analitica invece della velocit si preferisce utilizzare limpulso pi
= mvi e le equazioni di evoluzione sono determinate da una funzione del
sistema, chiamata Hamiltoniana e solitamente indicata con H
5
. Lo stato di
un sistema di N particelle rappresentato, al tempo t, da un vettore
X(t)(q1(t),, qN(t), p1(t),,pN(t)) in uno spazio M di dimensione 6N, che
contiene gli stati microscopici del sistema e viene chiamato spazio delle
fasi. Una traiettoria in M rappresenta il susseguirsi di questi stati allo
scorrere del tempo ed determinata dalle equazioni di Hamilton:

dq
i
dt
=
H
p
i
,
dp
i
dt
=
H
q
i
, (1)
con i = 1,,N. Se la Hamiltoniana, che contiene linterazione tra le
particelle, non dipende esplicitamente dal tempo, allora l energia una
quantit conservata ed il moto si sviluppa su una ipersuperficie ad energia
fissata. Notiamo che le equazioni (1) sono invarianti rispetto ad inversione
temporale, cio rispetto al seguente scambio di variabili:
q
i
q
i
, p
i
p
i
, t t .
(2)

Si immagini di far evolvere il sistema descritto dalle equazioni (1), a partire
da una certa condizione iniziale (q1(0), ..., qN(0); p1(0), ..., pN(0)) fino ad un
certo tempo t > 0. Allistante t si inverta il tempo, cio, lasciando
invariate le posizioni q1(t),,qN(t), si invertano i momenti, sostituendo
p1(t),,pN(t) con -p1(t),, -pN(t), e si faccia evolvere nuovamente il sistema;
questa operazione lanalogo matematico del proiettare un film allindietro.
Poich le equazioni di Hamilton sono invarianti rispetto alla trasformazione

2
Castiglione, Falcioni, Lesne, Vulpiani (2008).
3
Ivi, Zangh (2005).
4
Per esempio in fluidi comuni a temperatura ambiente.
5
Fasano, Marmi (2002).





Chibbaro, Rondoni, Vulpiani: Considerazioni sui fondamenti della Meccanica Statistica



121




di inversione temporale (2), levoluzione diretta e quella inversa sono
ugualmente possibili: il sistema ripercorrer allindietro la sua storia e, dopo
un tempo t, ritorner nella stessa posizione iniziale ma con le velocit
invertite.
A livello microscopico le osservabili del sistema, ovvero le grandezze
accessibili a una misura diretta o indiretta, sono rappresentate da funzioni

A : M definite nello spazio delle fasi, che associano un numero reale
A(X) ad ogni stato microscopico X M. A livello macroscopico il sistema
descritto da un piccolo numero di variabili termodinamiche (temperatura,
pressione etc); inoltre si hanno comportamenti irreversibili: mescolando un
litro di acqua calda (ad esempio a 50 gradi centigradi) uno di acqua fredda
(ad esempio a 10 gradi centigradi) si ottengono due litri di acqua tiepida (a
30 gradi centigradi) e mai un litro a 55 gradi centigradi ed un altro a 5 gradi
centigradi, nonostastante questo sia compatibile con la conservazione dell
energia. Le equazioni macroscopiche, ad esempio le equazione
dellidrodinamica, riflettono questo comportamento e non sono reversibili.
Il problema concettuale e tecnico della meccanica statistica come
conciliare la termodinamica con la dinamica microscopica: data la dinamica
microscopica, cio lHamiltoniana del sistema, determinare le propriet
macroscopiche, ad esempio lequazione di stato.


2.1. Lipotesi visionaria di Boltzmann

fondamentale notare che la scala dei tempi macroscopici, quelli di
osservazione del sistema, molto pi grande della scala dei tempi della
dinamica microscopica (1), quelli che dettano i cambiamenti a livello
molecolare. Ci significa che un dato sperimentale in realt il risultato di
ununica osservazione durante la quale il sistema passa attraverso un
grandissimo numero di stati microscopici diversi. Se il dato si riferisce
allosservabile A(X), esso va quindi confrontato con una media eseguita
lungo levoluzione del sistema e calcolata su tempi molto lunghi dal punto
di vista microscopico:

.
0
0
0
1
( , ) ( ( ))
t T
t
A t T A X t dt
T
+
= (3)

Il calcolo della media temporale A richiede, in linea di principio, sia la
conoscenza dello stato microscopico del sistema ad un certo istante, sia la





Complessit e riduzionismo
122




determinazione della corrispondente traiettoria nello spazio delle fasi. La
richiesta evidentemente impossibile quindi, se A dipendesse in maniera
molto forte dallo stato iniziale del sistema, non si potrebbero fare previsioni
di tipo statistico, neanche trascurando la difficolt di trovare la soluzione del
sistema (1).
Lipotesi ergodica di Boltzmann permette di superare questo ostacolo.
Essa sostanzialmente afferma che se lenergia del sistema macroscopico
fissata, ogni possibile stato microscopico che abbia quella data energia
equiprobabile ad ogni altro che abbia la stessa energia. Pi formalmente si
pu dire che ogni ipersuperficie di energia fissata completamente
accessibile a qualunque moto con la data energia
6
. Inoltre, il tempo medio di
permanenza di ogni traiettoria in una data regione proporzionale al volume
della regione, e questo permette di introdurre una densit di probabilit
Pmc(X) (detta microcanonica).
Se le condizioni precedenti, che costituiscono appunto il nucleo
dellipotesi ergodica, sono soddisfatte, segue che, se T sufficientemente
grande, la media in (3) dipende solo dallenergia del sistema e assume
quindi lo stesso valore su tutte le evoluzioni con uguale energia. Lipotesi
ergodica permette di scrivere:

A lim
T
1
T
A(X(t))dt = A(X)P
mc
(X)dX A

t
0
t
0
+T

(4)

La validit della precedente equazione ci libera contemporaneamente dalla
necessit di determinare uno stato (iniziale) del sistema e di risolvere le
equazioni del moto.
La densit di probabilit sulla superficie con energia fissata o, pi
precisamente, nello strato di energie comprese tra due valori vicini, E ed E +
, :

P
mc
(X) =
1

(E,V, N)
, se E < H < E +

e nulla altrimenti, ove

(E,V, N) = d
3N
qd
3N
p
E< H<E+

,

6
Cfr. Castiglione, Falcioni, Lesne, Vulpiani (2008), Zangh (2005), Cercignani (1998).





Chibbaro, Rondoni, Vulpiani: Considerazioni sui fondamenti della Meccanica Statistica



123





il volume dello spazio delle fasi contenuto tra le ipersuperfici H = E ed H
= E + .
A questo punto manca ancora un ultimo aspetto fondamentale: il
legame che permette di connettere le propriet termodinamiche a quelle
meccaniche. Questo ponte concettuale (e tecnico) dato dal principio di
Boltzmann:

S = k
B
ln

(E,V, N) (5)

ove kB la costante di Boltzmann, kB = RNA e R la costante dei gas.
Questa relazione, che incisa (con notazione leggermente diversa)
sulla tomba di Ludwig Boltzmann a Vienna, costituisce quella che in
filosofia della scienza chiamata la legge ponte, nella terminologia di
Nagel
7
, tra la termodinamica e la meccanica statistica nell ensemble
microcanonico. Aggiungendo la definizione (puramente termodinamica) di
temperatura

S
E
=
1
T
(6)

a partire dalla (5) si pu ricavare tutta la termodinamica
8
.
In molti libri di filosofia della scienza, ad esempio nello stesso Nagel
9
,
si trova scritto che la legge ponte tra meccanica e termodinamica la
connessione tra temperatura ed energia cinetica media. Questo a nostro
avviso non corretto. La sua validit infatti limitata ad una certa classe di
sistemi (gas monoatomici), inoltre lenergia cinetica una grandezza
puramente meccanica che non pu in alcun modo rendere conto di propriet
fondamentale della temperatura, ed esempio il principio zero della
termodinamica
10
. Al contrario la (5) del tutto generale e mette in relazione
il livello microscopico con quello macroscopico.

7
Nagel (1984).
8
Cercignani (1998).
9
Nagel (1984).
10
Peliti (2003).





Complessit e riduzionismo
124




2. Perch la meccanica statistica funziona?
Se N 1 si possono ottenere risultati molto generali ed possibile
introdurre tecniche di calcolo (e metodi di approssimazione) molto potenti
che consentono lo studio dettagliato dei sistemi macroscopici
11
. La
meccanica statistica sicuramente una teoria di grande successo, e di questo
nessuno dubita; ma non c un completo consenso sul perch funzioni tanto
bene.


2.1. Ergodicit, meccanica analitica e caos

Una possibile proposta per giustificare il successo della meccanica statistica
la seguente: la dinamica abbastanza complicata (caotica in linguaggio
tecnico), quindi il sistema ergodico e linsieme microcanonico
dinamicamente giustificato. Una volta assunta la validit dellinsieme
microcanonico, si pu facilmente introdurre linsieme canonico in cui
lenergia pu variare, etc. Rimane da capire se i sistemi siano genericamente
ergodici oppure non lo siano.
Questo un problema decisamente difficile che si intreccia con la
meccanica analitica. Infatti, se esistessero integrali primi
12
oltre allenergia,
il sistema risulterebbe sicuramente non ergodico: scegliendo come
osservabile A uno degli integrali primi si avrebbe A = A(X(0)) che dipende
dalla condizione iniziale X(0) ed quindi generalmente diverso da A .
Nel fondamentale lavoro sul problema dei tre corpi Poincar ha
dimostrato che, in generale (cio a parte casi patologici o banali), un sistema
Hamiltoniano non ammette integrali primi analitici oltre allenergia
13
. Nel
1923, Fermi generalizzando il teorema di Poincar argoment che i sistemi
Hamiltoniani in genere sono ergodici.
Purtroppo Fermi si sbagliava, questo lo cap lui stesso in un suo
importante lavoro numerico (FPU) in collaborazione con Pasta e Ulam
14
. Un
anno prima di questo lavoro, Kolmogorov aveva enunciato un importante
teorema, che ora noto con la sigla KAM, poich la dimostrazione venne in
seguito completata da Arnold e Moser. In modo molto informale si pu dire

11
Ivi.
12
Quantit costanti durante levoluzione del sistema.
13
Fasano, Marmi (2002).
14
Fermi, Pasta, Ulam (1955); Falcioni, Vulpiani (2001).





Chibbaro, Rondoni, Vulpiani: Considerazioni sui fondamenti della Meccanica Statistica



125




che il teorema stabilisce che un sistema esprimibile come un sistema
integrabile (in cui il moto quasi-periodoco) pi una debole perturbazione,
si comporta sostanzialmente come il sistema senza perturbazione
15
.
Il FPU e il teorema KAM mostrano in modo inequivocabile che un
generico sistema Hamiltoniano non ergodico, almeno da un punto di vista
strettamente matematico.
Tuttavia la connessione tra i risultati rigorosi della matematica e la
fisica non mai semplice e anche dopo oltre mezzo secolo la comprensione
della rilevanza del KAM, e pi in generale del caos, per la meccanica
statistica non pu considerarsi ancora completamente risolta
16
, anche se
questi lavori rimangono fondamentali, perch hanno in evidenza la relazione
tra non-linearit, caos e meccanica statistica.
Per alcuni studiosi proprio il caos lingrediente fondamentale che
giustifica la validit della meccanica statististica. Ad esempio Prigogine
17

sostiene che la nozione di caos porta a rivedere il concetto di legge di
natura... e che nei sistemi caotici le traiettorie sono eliminate dalla
descrizione probabilistica. E ancora L irreversibilit o vera ad ogni
livello oppure non vera mai: non pu emergere dal nulla nel passaggio da
un livello all altro.
La stessa idea espressa da Driebe
18
, in un acceso dibattito con
Lebowitz
19
sui fondamenti della meccanica statistica:
Processi irreversibili sono osservati in sistemi con pochi gradi di
libert... La freccia del tempo non dovuta a qualche approssimazione
fenomenologica ma una propriet intrinseca dei sistemi caotici
20
.



15
Il teorema, si pu enunciare come segue:
Data una Hamiltoniana H(I,) = H
0
(I) + H
1
(I,) , con H
0
(I) sufficientemente regolare
e inoltre det
2
H
0
(I) /I
i
I
j
0, se piccolo allora sulla superficie di energia costante
sopravvivono dei tori invarianti (che sono detti tori KAM e che risultano una piccola
deformazione di quelli presenti per = 0) in un insieme la cui misura tende a 1 quando
0.
16
Cfr. Castiglione, Falcioni, Lesne, Vulpiani (2008); Falcioni, Vulpiani (2001).
17
Prigogine (1994).
18
Driebe (1994).
19
Lebowitz (1993).
20
Driebe (1994).





Complessit e riduzionismo
126




2.2. Lergodicit non veramente necessaria

Esiste una scuola di pensiero, che ha tra i suoi maggiori esponenti Khinchin
e Landau, che considera tutta la problematica sullergodicit sostanzialmen-
te irrilevante nel contesto della meccanica statistica, in quanto lipotesi
ergodica sarebbe di fatto non necessaria per giustificare leq. (4) per
osservabili fisicamente rilevanti. Questo punto di vista si basa sui fatti
seguenti:
a. nei sistemi che interessano la meccanica statistica, il numero di gradi
di libert molto grande;
b. la questione interessante per la meccanica statistica la validit della
(4) non per unosservabile qualunque, bens per le poche grandezze
rilevanti per la termodinamica;
c. fisicamente accettabile ammettere che lergodicit sia violata in una
regione piccola dello spazio delle fasi.
Le conclusioni ottenute da Khinchin, originariamente per sistemi di
particelle non interagenti, ed estese da Mazur e van der Linden a sistemi di
particelle interagenti con potenziali a corto raggio, sono riassunte nel
seguente risultato
21
: nel limite N 1, per una classe non banale di
osservabili A la misura relativa (ovvero la probabilit rispetto alla densit di
probabilit microcanonica Pmc) dei punti, sulla ipersuperficie di energia
fissata, in cui A significativamente diverso da A una quantit piccola
22
.
Possiamo perci dire che, nel limite N , la (4) valida per una
classe interessante di funzioni, tranne che in una regione dello spazio delle

21
Khinchin (1949).
22
Se losservabile A esprimibile come somma di N termini, dipendenti ognuna dalle
variabili di una sola particella A = f (q
i
, p
i
)
i =1
N

allora per sistemi con Hamiltoniana della


forma H = H
n
(q
n
, p
n
)
n=1
N

+ U q
n
q
n
' ( )
n, n
'

,

ove U(r) un potenziale di interazione
a corto raggio, si ha P
A A
A
C
1
N
1/ 4
|
\

|
|
C
2
N
1/ 4
, ove C
1
e C
2
sono costanti
O(1).





Chibbaro, Rondoni, Vulpiani: Considerazioni sui fondamenti della Meccanica Statistica



127




fasi, che si fa sempre pi piccola allaumentare di N; e questo
indipendentemente dai dettagli della dinamica.


3. Who is the winner?

Nella sezione precedente abbiamo accennato a due posizioni nettamente
diverse. Da una parte abbiamo il punto di vista tradizionale, risalente a
Boltzmann e parzialmente formalizzato da Khinchin, che pu essere cos
riassunto: lingrediente che caratterizza la meccanica statistica lenorme
numero di gradi di libert
23
. Dallaltra la scuola moderna cresciuta
intorno a Prigogine ed i suoi collaboratori, che considera il caos come
lingrediente fondamentale; per una dettagliata critica si veda il lavoro di
Bricmont
24
.
I risultati di Khinchin, pur molto importanti, non sono in grado di
rispondere in modo definitivo a tutti i problemi sollevati dalla relazione fra
termodinamica e meccanica statistica. Ad esempio, non sono in grado di
dire cosa succederebbe a condizioni iniziali microscopiche atipiche, come
quelle dette di non equilibrio, e, nel caso tutto funzioni, cio che la (4) sia
valida, quale sarebbe il tempo T necessario affinch la media (3) si avvicini
adeguatamente al valore A .
Il caos deterministico certamente importante e la sua riscoperta ha
permesso di riconsiderare alcune idee di fondo sulla rilevanza del
determinismo e la descrizione statistica. Tuttavia capire la sua reale
importanza per la validit della meccanica statistica, e dellirreversibilit in
particolare, non cosa facile e si deve far ricorso a simulazioni numeriche
25
.
Prima di discutere brevemente qualche risultato tecnico che permette di
districarsi (o almeno orientarsi) tra i diversi approcci, notiamo che i due
punti di vista si differenziano nettamente, anche da un punto di vista
filosofico. In termini un po approssimativi, possiamo dire che
limpostazione di Prigogine un esempio di riduzionismo nella sua forma
pi semplice: nel passaggio dalla meccanica alla termodinamica non ci
sarebbe molto di nuovo. Per Prigogine, infatti, le propriet statistiche sono
contenute nelle propriet dinamiche, indipendentemente dal numero di gradi
di libert coinvolti. Al contrario, nella scuola tradizionale, si ha un elemento
in pi: il numero estremamente grande di gradi di libert. Questo il fatto

23
Grad (1967).
24
Bricmont (1996).
25
Castiglione, Falcioni, Lesne, Vulpiani (2008); Falcioni, Vulpiani (2001).





Complessit e riduzionismo
128




fondamentale che permette lemergere, nei sistemi macroscopici, di
propriet che sono del tutto assenti in sistemi piccoli.
Dettagliati calcoli numerici in sistemi Hamiltoniani mostrano in modo
chiaro che il caos non affatto un ingrediente fondamentale
26
. Ad esempio
in catene di tanti oscillatori non lineari si osserva che il calore specifico
misurato con medie temporali in accordo con le previsioni della meccanica
statistica anche quando il sistema non rigorosamente ergodico. Lidea,
apparentemente sensata, che il caos implichi buone propriet statistiche non
supera il controllo numerico e si rivela inconsistente, e questo anche in casi
in cui i risultati di Khinchin non sono, matematicamente parlando, validi.
Concludiamo discutendo brevemente il problema dellirreversibilit in
cui, a nostro avviso, essenziale considerare il problema dei livelli di realt,
cio il grado di accuratezza o approssimazione con il quale si osserva un
dato fenomeno. Consideriamo il seguente esperimento concettuale: si versi
del profumo in un angolo di una stanza; le molecole del profumo,
inizialmente concentrate in una piccola regione, velocemente occuperanno
tutta la stanza. Si immagini ora di poter filmare le molecole. Proiettando la
pellicola allindietro, si vedr un fenomeno innaturale: tutte le molecole
sparse nella stanza si riuniranno in un angolo. Guardando invece una sola
molecola nel film a proiettato al contrario, non si evidenzier niente di
anormale. Analogamente, non si nota niente di strano nel film proiettato al
contrario se si limita losservazione a poche molecole. Solo guardando un
numero elevato di molecole, si ha limpressione di un comportamento
innaturale.
Quanto precedentemente accennato lascia sperare che sia possibile
dimostrare, entro opportuni limiti, lirreversibilit dei fenomeni
macroscopici, che riguardano un grande numero di particelle, a partire dalla
dinamica microscopica. Partendo da un fondamentale lavoro di Grad del
1948 si arrivati a formulare e dimostrare in modo rigoroso quanto intuito
da Boltzmann. Tra i tanti che hanno partecipato a questo significativo
progresso ricordiamo Carlo Cercignani, che ha dato contributi fondamentali
alla meccanica statistica. Consideriamo un gas diluito di particelle
interagenti con un potenziale a corto raggio, ad esempio possiamo pensare
che le molecole siano sfere rigide di diametro s, la sostanza del lavoro
matematico
27
pu essere riassunta, in modo molto informale, come segue:
nel limite di Boltzmann-Grad:

26
Castiglione, Falcioni, Lesne, Vulpiani (2008).
27
Cercignani, Illner, Pulvirenti (1994).





Chibbaro, Rondoni, Vulpiani: Considerazioni sui fondamenti della Meccanica Statistica



129




2
; 0; cost N e N

ove N il numero di molecole nell unit di volume e il diametro delle
molecole e N
2
d la frequenza di collisione, se la condizione iniziale del
sistema fuori dall equilibrio termodinamico, dalle equazioni reversibili
della meccanica microscopiche si ottengono in modo rigoroso le equazioni
irreversibili che descrivono i sistemi macroscopici.

Questo risultato in netto contrasto con quanto sostenuto dalla scuola di
Prigogine. A prima vista pu sembrare impossibile che qualcosa
(lirreversibilit) che assente per ogni sistema con N finito possa apparire
nel limite N . La cosa non affatto sorprendente: quello che succede
nel caso dei limiti singolari. Per dare unidea consideriamo lequazione
algebrica

x
2
+ x 1= 0

se = 0 si ha una sola soluzione x = 1, se 0 ci sono due soluzioni: x1,2 =
(-1 1+ 4
2
)/2; se 0 < 1 abbiamo x1 = 1 + O() e x2 = -1/ + O(1). I
risultati per 0 < 1 sono drasticamente diversi da quelli = 0.
Abbiamo quindi che lirreversibilit pu essere vista come una
propriet emergente nel passaggio dal microscopico al macroscopico; ed
originata dal limite N , 0 .
impressionante laccordo dei risultati rigorosi con quanto intuito da
Boltzmann
28
:
Nelle equazioni della meccanica non c niente di analogo a quanto si
ha con la Seconda Legge della termodinamica che pu essere ricondotta a
termini meccanici solo con assunzioni sulle condizioni iniziali.
Come osservazione generale notiamo il fatto che quasi tutte le volte che
si tenta un processo di riduzione tra due teorie ci si trova davanti ad un
limite singolare in cui un parametro tende a zero
29
, come esempi possiamo
citare il passaggio:
1. dalla meccanica alla termodinamica:1/ N 0 ;
2. dalla meccanica quantistica alla meccanica classica:

/ A 0, ove
la costante di Planck ed A l azione classica del sistema;

28
Cercignani, Illner, Pulvirenti (1994).
29
Batterman (2001).





Complessit e riduzionismo
130




3. dallottica ondulatoria all ottica geometrica: / L 0 , ove ed L
sono rispettivamente la lunghezza donda e la dimensione tipica del
sistema .
Una delle poche eccezioni non banali di limite non singolare il passaggio
dalla relativit di Einstein alla meccanica newtoniana; in questo caso il
parametro che tende a zero vc, ove c e v sono rispettivamente la velocit
della luce e la velocit tipica del sistema.


4. Osservazioni finali

Concludiamo con alcune considerazioni generali su alcuni aspetti che sono,
almeno parzialmente, ancora materia di dibattito.


4.1. La termodinamica stata ridotta alla meccanica?

Alla fine di questa breve esposizione naturale domandarci se c stata una
vera riduzione della termodinamica alla meccanica. Prima di tentare una
risposta ricapitoliamo brevemente lo schema proposto che, a nostro avviso,
sostanzialmente quello immaginato da Boltzmann. Gli ingredienti
fondamentali della possibilit di una descrizione termodinamica dei sistemi
macroscopici sono:
1. Lipotesi ergodica (3);
2. La legge ponte, cio il principio di Boltzmann (5);
3. Il grande numero di gradi di libert coinvolti (N 1);
4. La selezione di opportune condizioni iniziali.
Abbiamo visto che lipotesi ergodica non strettamente vera, ma
assumendo il punto III possiamo dire che moralmente vera. I punti III e
IV sono fondamentali per far emergere i comportamenti collettivi, quali
lirreversibilit. Tentativamente possiamo dire che, nel linguaggio di Nagel,
siamo in presenza di un riduzione del secondo tipo (tra teorie eterogenee).
Notiamo che non solo c solo bisogno di una legge ponte, ma di qualcosa
in pi (assunzioni III e IV), solo in questo modo lemergenza di nuove





Chibbaro, Rondoni, Vulpiani: Considerazioni sui fondamenti della Meccanica Statistica



131




propriet pu avvenire. Sembra perci appropriato parlare di un caso di
emergenza debole
30
.
necessario tuttavia rilevare come la grandezza del lavoro di
Boltzmann non risieda tanto nellaver ridotto la termodinamica alla
meccanica, quanto nellaver compreso l impossibilit di ricondurre
lirreversibilit alle sole leggi della meccanica. Lo straordinario contributo
di Boltzmann fu proprio che comprese a pieno la natura singolare
dellemergere dellirreversibilit per la quale sono necessarie le assunzioni
III e IV, e trov una legge, lequazione (5), che mette in relazione i due
livelli di realt e dunque anche i due linguaggi. Questa relazione ha aperto la
via allo sviluppo della moderna meccanica statistica ed profondamente
diversa, e ben pi importante, di quella che stabilisce la proporzionalit tra
lenergia cinetica delle molecole e la temperatura. Ricordiamo che
lesistenza di una tale relazione era gi chiara a Daniel Bernoulli, allinizio
del XVIII secolo, ma non sufficiente per determinare, in modo coerente e
generale, la connessione tra meccanica e termodinamica.


4.2. La meccanica statistica falsificabile?

La domanda pu sembrare provocatoria ma ci sembra che meriti una breve
discussione. Il problema si potrebbe presentare nel seguente modo: dato un
recipiente di volume V contenente N particelle interagenti con un potenziale
noto U(|qi - qj|)=U(r), assumendo che esista una condizione di equilibrio
termico a temperatura T, trovare il calore specifico, lequazione di stato etc.
Ad esempio per gas diluiti si ha la seguente equazione di stato:


2 3
2 3
( ) ( ) ...
B
p
b T b T
k T
= + + + + (8)

dove p la pressione, = NV la densit ed i coefficienti del viriale b2,b3,...
sono esprimibili in termini di U(r). Una volta effettuati i calcoli si devono
confrontare i risultati con lesperimento.
In pratica non possibile porsi il problema nella forma precedente,
infatti anche assumendo che il problema sia classico, il potenziale U(r) non
noto: ha un origine quantistica e deve essere calcolato, almeno il linea di
principio, dall equazione di Schrdinger. possibile ottenere una buona
approssimazione solo in casi molto semplici, nella realt si deve procedere

30
Bedau, Humphreys (2006).





Complessit e riduzionismo
132




in modo completamente diverso
31
. Si comincia ipotizzando una forma
specifica per U(r), ad esempio per i liquidi semplici il potenziale di
Lennard-Jones

U(r) = 4

r
|
\
|

12


r
|
\
|

6



(

(
, (9)

che contiene due parametri e . Una volta calcolati i coefficienti del viriale
b2(T),b3(T),... in termini di U(r), dal confronto con i dati sperimentali si
determinano i parametri e . Questo procedimento chiaramente
autoconsistente e quindi la meccanica statistica potrebbe sembrare una
teoria non falsificabile, ma questa conclusione non corretta: la meccanica
statistica in grado di prevedere comportamenti non banali che possono
essere controllati sperimentalmente. Possiamo citare la distribuzione di
Maxwell-Boltzmann per la velocit delle molecole, lesistenza delle
transizioni di fase e luniversalit dei fenomeni critici. interessante notare
che in tutti i casi appena citati non necessario conoscere il potenziale: la
distribuzione di Maxwell-Boltzmann vale indipendetemente dalla forma di
U(r), mentre nei fenomeni critici solo alcune propriet qualitative (classi di
universalit) del potenziale sono rilevanti
32
.


Riferimenti

Batterman, R.W., 2001, The Devil in the Details, Oxford University Press.
Bedau, M., and Humphreys, P., (Eds), 2006, Emergence: contemporary
readings in philosophy and science, Cambridge University Press.
Bricmont, J., 1996, Science of chaos or chaos in science?, Annals of the
New York Academy of Sciences, 775, 131.
Castiglione P., Falcioni M., Lesne A., and Vulpiani A., 2008, Chaos and
Coarse Graining in Statistical Mechanics, Cambridge University
Press.
Cercignani, C., 1998, Ludwig Boltzmann: the man who trusted, Oxford
University Press.
Cercignani, C., Illner, R., and Pulvirenti, M., 1994, The Mathematical
Theory of Dilute Gases, Springer-Verlag, Berlin.

31
Hansen, McDonald (1986).
32
Peliti (2003).





Chibbaro, Rondoni, Vulpiani: Considerazioni sui fondamenti della Meccanica Statistica



133




Driebe, D.J., 1994, Is Boltzmann entropy times arrows archers?, Physics
Today, November 1994, pp. 13.
Emch, G.G., and Liu, C., 2001, The Logic of Thermostatistical Physics,
Springer Verlag, Berlin.
Falcioni, M., Vulpiani, A., 2001, Il contributo di Enrico Fermi ai sistemi
non lineariin Conoscere Fermi, Ed. Bernardini e Bonolis SIF,
Bologna.
Fasano, A., Marmi, S., 2002, Meccanica analitica, Bollati Boringhieri,
Torino.
Fermi, E., Pasta, J., and Ulam, S., 1955, Studies of Nonlinear Problems,
Document LA 1940.
Grad, H., 1967, Levels of Description in Statistical Mechanics and
Thermodynamics, in Delaware Seminar in the Foundations of Physics,
Ed. Bunge, Springer-Verlag, Berlin.
Hansen, J.-P., and McDonald, I. R., 1986, Theory of Simple Liquids,
Academic Press Inc, London.
Khinchin, A.I., 1949, Mathematical Foundations of Statistical Mechanics,
Dover Publications Inc., New York.
Lebowitz, J.L., 1993, Boltzmann s entropy and times arrow, Physics
Today, September 1993, pp. 32.
Nagel, E., 1984, La struttura della scienza, Feltrinelli, Milano.
Peliti, L., 2003, Appunti di Meccanica Statistica, Bollati Boringhieri,
Torino.
Prigogine, I., 1994, Les Lois du Chaos, Flammarion, Paris.
Zangh, N., 2005, I fondamenti concettuali dellapproccio statistico in fisica
in La Natura delle Cose (a cura di Allori, Dorato, Laudisa e Zangh),
Carocci Editore, Roma, pp. 139.