Sei sulla pagina 1di 10

INFORMAZIONE E COMPLESSITÀ IN BIOLOGIA

C. Frontali (pubbl. in Dedalus 4, 38-42, 2008)

In uno dei più bei film di Bunuel, “L’angelo sterminatore” (il film fu girato in Messico
nel 1962), succede che da un certo istante in poi gli invitati ad un ricevimento si trovano
nell’assurda situazione di non potere in alcun modo uscire dai saloni della festa, trattenuti da
una forza misteriosa. Perdurando la reclusione per diversi giorni, si assiste allo sfaldamento
delle convenzioni sociali che uniscono (e in cui si riconoscono) i presenti. Tra gli invitati -
sudati e accaldati- si innescano liti, piccinerie, meschinità. Il degrado delle convenzioni
borghesi è il tema che appassiona Bunuel (in questo e in altri film), ma il regista deve pur
trovare uno scioglimento della trama – ed è proprio sul tipo di scioglimento inventato da
Bunuel che a me interessa puntare qui l’attenzione, considerandolo paradigmatico. Perché
rimanga ben impresso lo porto in apertura, prima di entrare in considerazioni intricate circa
le difficoltà che si incontrano nel definire due termini spesso usati in biologia:
“informazione” e “complessità”
Se c’è un termine che ha avuto un ruolo seminale nella nascita e nello sviluppo della
biologia molecolare, questo è il termine “informazione”. Lo testimoniano locuzioni come
informazione ereditaria, flusso dell’informazione dal DNA all’RNA e dall’RNA alle
proteine, RNA messaggero (cioè latore di una informazione)
Ma, ahimè, il concetto che sottende l’uso di questo termine in biologia è quanto mai
confuso, ed il termine viene spesso usato a sproposito. Ancora più vago è il significato del
termine “complessità”, in qualche modo correlato al precedente. Come vedremo non è
semplice dare una definizione univoca di ciò che si intende in modo intuitivo quando si
usano le parole “semplice” e “complesso”.
Tornando al film di Bunuel, l’insolita situazione si risolve (e gli invitati, disfatti e con i
vestiti da sera stropicciati, possono finalmente uscire) solo nel momento in cui essi
rioccupano esattamente le stesse posizioni che occupavano nell’istante in cui si è generato il
misterioso fenomeno che li ha trattenuti. La disposizione “chiave” degli invitati non rivela
alcuna regolarità allo spettatore, e per quanto è dato sapere non differisce da altre possibili
disposizioni più di quanto non differiscano tra loro le distribuzioni di una manciata di bilie
sparsa a caso sul pavimento. Eppure quell’unica configurazione, tra le tante possibili, ha la
capacità di interferire con il misterioso meccanismo che li trattiene, annullandolo. Questa
“specificità” di effetto (o di significato) è quanto per ora mi interessa sottolineare.

1
Comparsa dei termini “codice” e “informazione”
Vorrei ora iniziare il mio discorso con le parole di Erwin Schroedinger in “Che cosa è la
vita”, il libro che ha visto la luce nel 1945 ma che contiene quanto da lui esposto in tre
conferenze tenute a Dublino nel 1943. Cito queste date per chiarire che Schroedinger non sa
nulla del ruolo del DNA ipotizzato per la prima volta da Avery, MacLeod e McCarty nel
1944.

“Sono i cromosomi presenti nell’uovo fecondato -o probabilmente solo una fibra che
costituisce l’ossatura di ciò che noi vediamo al microscopio come cromosoma- a
contenere in una specie di codice cifrato l’intero disegno del futuro sviluppo
dell’individuo e del suo funzionamento nello stadio della maturità. Ciascuna delle due
serie di cromosomi contiene l’intero testo del codice”.

“La parte più essenziale di una cellula vivente, la fibra dei cromosomi, può veramente
dirsi un ‘cristallo aperiodico’… La differenza di struttura [rispetto ad un cristallo
periodico] è la stessa che corre tra un’ordinaria carta da parati, in cui lo stesso disegno
è ripetuto indefinitamente con periodicità regolare, ed un capolavoro di ricamo, per
esempio un arazzo di Raffaello…un disegno elaborato, coerente, significativo.”

Per quanto mi risulta, è la prima volta che si parla esplicitamente di “codice” in relazione
all’informazione ereditaria. Ma voglio far notare che Schroedinger non parla di
informazione, bensì di “un disegno, elaborato, coerente, significativo”. L’uso del termine
‘informazione’ nel senso oggi comune in biologia molecolare infatti è invalso solo dopo
l’enunciazione -nel 1949- dell’omonima teoria ad opera di Shannon e Weaver, anche se tale
teoria non ha nulla a che vedere con l’informazione rilevante in biologia.
La teoria di Shannon e Weaver infatti si occupa della trasmissione di messaggi da un
trasmettitore, il quale traduce il messaggio in codice (generalmente un codice binario, fatto
di due simboli, 0 e 1) e lo invia tramite una linea di comunicazione ad un ricevente, che
decodifica il messaggio. I problemi che la teoria tratta riguardano il traffico dei messaggi che
la linea può supportare in relazione ai codici impiegati, gli effetti del rumore di fondo, i modi
per individuare e correggere gli errori di trasmissione, e così via. Tutto ciò non ha a che
vedere con il significato del messaggio: non fa differenza, ai fini della teoria
dell’informazione, se si tratta della cronaca di una partita di calcio o di un canto della Divina
Commedia.

2
Potremmo tutti concordare su una definizione (lessicale, visto che una definizione
ostensiva sarebbe difficile) che identifica l’informazione con una “trasmissione di
conoscenza”. Tutt’è capire di che tipo di conoscenza stiamo parlando, e se c’è qualcosa di
comune tra l’informazione di cui si parla in biologia e quello che per Shannon è “riduzione
dell’incertezza”. Ma almeno il termine ‘trasmissione’ possiamo darlo per noto.
Dunque l’informazione si definisce quando c’è un trasferimento: infatti non ha senso
parlare di “contenuto di informazione”, ad esempio di una macromolecola biologica. Per
rendercene conto proviamo a domandarci qual è il contenuto di informazione di una
bicicletta (il che renderebbe lecita anche la domanda: il contenuto di informazione è
maggiore per una bicicletta o per un violino?). Si potrebbe rispondere (e vedremo oltre gli
sviluppi di questa risposta) che tale contenuto è misurato dalla lunghezza di un messaggio
che descriva completamente l’oggetto in questione, in modo da renderne possibile la
costruzione. Ma è evidente che questo messaggio non è affatto univocamente definito.
Ammesso che un tale messaggio venga fornito (ad esempio sotto forma di un nastro
perforato) ad un robot capace di eseguire le istruzioni costruttive, è chiaro che la lunghezza
del messaggio dipende dai semilavorati che il robot ha a disposizione. E se non ha senso
parlare di informazione contenuta in un oggetto o in una macchina, tanto meno ne ha nel
caso di un organismo.

La quantità di informazione portata da un messaggio


Appurato che l’informazione si definisce solo nei trasferimenti, vediamo di distinguere
l’informazione a seconda del tipo di conoscenza ad essa associata. Nel caso della teoria di
Shannon e Weaver, qual è la conoscenza trasmessa?
Per fissare le idee, pensiamo a due persone: l’una (che indicheremo con T) trasmette
all’altra (che chiameremo R) un messaggio usando un alfabeto concordato. Se sono N i
messaggi di data lunghezza che possono essere costruiti con i simboli dell’alfabeto, e tutti gli
N messaggi hanno a priori la stessa probabilità (pari a 1/N), allora il ricevente è nello stato
di massima incertezza circa il messaggio che T gli invierà. L’incertezza media globale si può
quantificare, secondo Shannon, mediante la seguente espressione (si tratta di un numero
senza dimensioni. Se l’alfabeto è binario si misura in “bit”):
N
I =  i Pi . log2 Pi
i=1

3
Ognuno dei termini sotto segno di sommatoria rappresenta il contributo alla riduzione
dell’incertezza (cioè all’aumento dell’informazione di R) associato all’invio di un particolare
messaggio, pesato con la probabilità Pi che ha quel messaggio nell’insieme degli N possibili.
E’ facile calcolare le I di Shannon per una data sequenza di DNA, e sono disponibili sul
mercato programmi di computer che questo fanno, utilizzando una codifica per le quattro
basi del tipo A=00, T=01, G=10, C=11. Il valore di I sarà massimo (I max=2 bit/base) nel caso
che i quattro simboli siano equiprobabili: è questo infatti il caso di “massima sorpresa” per il
ricevente, che non ha alcuna indicazione per fare una previsione o una scommessa su quale
sarà la prossima base che verrà trasmessa. Se invece ci sono regole o correlazioni tra basi
lungo la sequenza, il risultato sarà minore di Imax.
Tuttavia, non esistendo alcun modo di valutare le probabilità a priori dell’aggiunta di
una o dell’altra base, ciò che si fa è di sostituire alle P i i valori a posteriori delle frequenze
riscontrate per le quattro basi. Ma una sequenza di DNA non si forma aggiungendo ad ogni
passo una lettera pescata a caso da un sacchetto o scelta in base a regole di correlazione.
Ogni sequenza di DNA deriva da una sequenza precedente tramite eventi puntiformi o estesi,
e passando attraverso processi selettivi (colli di bottiglia) a noi totalmente ignoti, e tali da
ridurre drasticamente il numero di sequenze che possono realizzarsi in un organismo rispetto
a quelle statisticamente possibili. Il successo riproduttivo si incarica poi di propagare
determinate soluzioni. Ciò rende totalmente ingiustificata la procedura di sostituire alle
probabilità a priori le frequenze di eventi che non sono neppure indipendenti tra loro.
Applicando la formula di Shannon alle sequenze di DNA, si trova che le regioni
codificanti per proteine hanno un valore di I più vicino a Imax (massima “randomness”) che
non le estese regioni non codificanti, spesso ripetitive, che occupano tanta parte nel DNA ed
il cui ruolo biologico è a tutt’oggi largamente ignoto, tanto che è stato ipotizzato che
comprendano sequenze di “DNA parassita”, o addirittura “DNA spazzatura”. Il fatto che le
porzioni considerate più significative (i geni) appaiano le più casuali non deve sorprendere:
infatti le grandezze definite nell’ambito della teoria dell’informazione prescindono
totalmente dal livello semantico o pragmatico (nel senso di efficace nel determinare
un’azione) dell’informazione trasmessa.
Shannon e Weaver mettono più volte in guardia da questo tipo di errore: l’informazione
calcolata con la formula sopra discussa è unicamente quella di aver trasmesso una certa
sequenza tra le N possibili, ad esclusione delle restanti N-1. Ciò che il messaggio evoca o
significa per R quando lo decodifica e lo legge, significato che è altamente soggettivo, esula
necessariamente dalla loro teoria: a parità di I (numero di bit) il messaggio può portare il

4
testo dell’ultima canzonetta oppure l’ordine di un comando militare a compiere un’azione
pericolosa.

La complessità algoritmica
Eppure esiste una grandezza denominata “Algorithmic Information Content” (AIC) o,
alternativamente, “Algorithmic Complexity” o “Algorithmic Randomness” (di un
messaggio, non di un sistema!). Questa grandezza è stata introdotta, negli anni ’60,
indipendentemente da tre matematici: Andrej Kolmogorov, Gregory Chaitin (che al tempo
aveva 15 anni) e Ray Solomonoff. Essi considerano un particolare messaggio (pensiamolo
sempre scritto in codice binario) e -con riferimento ad un computer a disposizione- si
domandano quali programmi faranno in modo che il computer stampi quel preciso
messaggio e poi si fermi. La lunghezza del più corto di tali programmi è la AIC.
Se il messaggio contiene delle regolarità, la AIC si riduce. Ad esempio, se il messaggio
01010101010101010101 basterebbe dire al computer: “stampa 10 volte il gruppo di simboli
01”. Se invece la sequenza di 0 e 1 non ha alcuna regolarità (come nel caso di una sequenza
casuale), occorrerà dettarla tutta intera al computer. Nel primo caso la sequenza è fosse stata
“compressa” ad una istruzione semplice, nel secondo la sequenza è “incomprimibile” e la
sua complessità algoritmica è massima.
Abbiamo così incontrato la parola “complessità”. In fisica questo termine è associato alla
difficoltà di eseguire ragionevoli previsioni circa l’evolversi di un sistema. Il termine non è
legato ad un elevato numero di gradi di libertà del sistema, né ad un elevato numero di
componenti: possono aversi sistemi a molti corpi che seguono un comportamento
“semplice”, o sistemi con pochi gradi di libertà che mostrano un comportamento non
predicibile. Ha piuttosto a che vedere con l’instabilità del comportamento rispetto a
variazioni minime nelle condizioni iniziali del sistema o nelle forze agenti su di esso.
Riferito ad un fenomeno (ad esempio il moto vorticoso di un fluido) non ha di solito a che
vedere con l’estensione del sistema interessato.
Nel suo libro “The Quark and the Jaguar: adventures in the simple and the complex”
(Little, Brown & Co., Londra, 1994) il premio Nobel per la Fisica, il teorico Murray Gell-
Mann, generalizza come segue la definizione di AIC applicandola ad un sistema: la
complessità è misurata dalla lunghezza del più breve messaggio che descrive il sistema -ad
un dato livello di risoluzione- ad un ricevente, usando un linguaggio e delle conoscenze che
trasmettitore e ricevente condividono e sanno di condividere.

5
Per capire bene la necessità della locuzione “ad un dato livello di risoluzione”, pensiamo
ad esempio all’uso che del termine ‘complessità’ fanno gli studiosi di ecologia. Si tratti per
esempio di descrivere un’area boschiva dal punto di vista della ‘biodiversità’. Il messaggio
dovrà specificare le specie vegetali e animali presenti, o anche i microrganismi? E anche
lasciando da parte questi ultimi, dovrà fermarsi alle specie vegetali e animali, o elencare
anche le sottospecie e varietà?
Nel caso che abbiamo immaginato sopra, del robot che riceve le istruzioni per montare
una bicicletta, il livello di risoluzione è determinato dal tipo di semilavorati a disposizione e
dalla conoscenza che ne hanno T e R: il messaggio sarà più breve se possono essere usati i
termini pedali, manubrio, ecc., senza dover descrivere ogni singola componente meccanica.
La grandezza definita da Gell-Mann però non distingue tra un sistema che ha una
funzione definita, come una bicicletta, e una composizione di pezzi meccanici come in certe
opere plastiche di Picasso, e ancor più in quelle dello svizzero Jean Tinguely, in cui manubri
o ruote di bicicletta sono assemblati con l’unico scopo di realizzare un’opera d’arte. A parità
di complessità, dunque, l’informazione semantica o pragmatica può essere molto diversa, ma
è solo questa -in quanto collegata con la funzione che il sistema potrà svolgere- che conta in
biologia.

L’informazione semantica o pragmatica dipende dal contesto del ricevente


Perfino un’arida sequenza di dati numerici può suscitare emozioni e determinare
comportamenti diversi a seconda delle conoscenze e delle convinzioni che R ha già, prima di
ricevere il messaggio.
Prendiamo il caso del ritardo dell’uscita di un certo numero al gioco del lotto. Chi crede
che la probabilità di estrazione di un numero dipenda dai risultati delle estrazioni precedenti
vorrà ricavare informazioni dalla sequenza dei numeri usciti ad esempio nelle ultime 150
settimane sulla ruota di Venezia. Per questa sequenza si può calcolare facilmente il valore di
AIC, valore che sarà pari alla lunghezza della sequenza se questa è realmente stocastica e
incomprimibile. Anche la I di Shannon sarà massima, perché tutte le altre sequenze costruite
con i 90 numeri sono equiprobabili. Ma se il nostro testardo giocatore è convinto che il
ritardo influenzi la probabilità di estrazione, dalla particolare sequenza che si è realizzata
egli ricaverà il numero che ha accumulato maggior ritardo, e lo giocherà (probabilmente
perdendo: le probabilità di perdere sono 89/90). Per uno che invece è sicuro della stocasticità
del meccanismo di estrazione, la particolare sequenza verificatasi è senza valore (cioè non

6
reca alcuna informazione semantica o pragmatica) e non influisce sul suo comportamento
nelle giocate.
Si vede da questo esempio che la AIC o la I di Shannon misurano la casualità
(randomness), che non è certo ciò che normalmente si intende per complessità in senso
scientifico (e nemmeno nel senso comune). Ciò che sfugge completamente a queste
definizioni è la “specificità di significato” o la “specificità nel determinare un’azione” che è
parte essenziale dell’idea di informazione che serve in biologia, e in particolare in biologia
molecolare: basti pensare che hanno praticamente lo stesso valore di AIC e di I sia la
sequenza di un gene codificante una data proteina enzimatica, sia la sequenza di una
versione dello stesso gene che non è più in grado di dirigere la sintesi della proteina
funzionale perché è affetta anche una singola mutazione puntiforme.

Un modello diverso
L’informazione che una volta decodificata “induce a fare” è quella che gioca nel finale
del film di Bunuel: quella specifica disposizione di persone (indistinguibile da altre quanto
ad AIC o a complessità secondo la definizione di Gell-Mann) è l’unica che fornisce “la
chiave” o “il segnale” per uscire dalla incresciosa situazione che si è determinata.
Soffermiamoci su queste due metafore: la chiave (e la serratura che essa sola può aprire)
richiama la specificità di un meccanismo che “sblocca” una serie di eventi (ad esempio il
passaggio di persone attraverso la porta che si è aperta) che è del tutto indipendente da tale
meccanismo. Come esempio di segnale pensiamo al colpo di pistola che dà il via ai
corridori, già curvi e in tensione ai loro posti di partenza. Ciò che hanno in comune le due
metafore è la rimozione di barriere che impediscono il realizzarsi un certo tipo di eventi.
Ma c’è una implicazione ulteriore: una volta rimossa la barriera, si può “liberare”
un’energia potenziale (molla compressa, muscoli in tensione) così che anche fenomeni a
bassa energia possono fornire il segnale che determina (lascia libero lo svolgimento di)
azioni che coinvolgono energie assai più elevate. La parola inglese “trigger” (letteralmente:
“grilletto”) è passata in gergo scientifico ad indicare proprio questo tipo di situazione, e
viene spesso usata come intraducibile, sembrando -a torto o a ragione- non interamente
adeguate le parole “rilascio” o “liberazione” (a seguito di un segnale).
E’ interessante ricordare come uno di più rilevanti argomenti portati da Galvani nella
famosa controversia con Volta riguardasse proprio quanto era trascurabile lo stimolo da lui
applicato in confronto all’effetto di contrazione ottenuto. Egli osservava infatti una energica
contrazione della zampa di rana anche solo spostando l’estremità tagliata del nervo crurale -

7
sporgente dalla coscia di rana preparata- fino a sfiorare la superficie esterna della coscia
stessa. Questo lo confermava nell’idea che causa della contrazione non fosse “lo squilibrio
elettrico” dovuto al contatto tra conduttori diversi, bensì un’elettricità di origine animale… e
aveva ragione, anche se non poteva immaginare che sede dello “squilibrio elettrico” fosse la
membrana cellulare, la cui polarizzazione permette di mantenere cariche elettriche di segno
opposto sulle sue due facce, esterna ed interna. Tanto meno poteva immaginare che questo
stato di squilibrio tra le due facce della membrana -di origine dunque puramente “animale”-
potesse essere alterato da stimoli che fanno aprire dei canali tra l’esterno e l’interno della
cellula. Il piccolo stimolo applicato da Galvani costituiva dunque il segnale che dava il via
ad una catena di eventi il cui risultato finale era la trasformazione in energia meccanica
dell’energia chimica immagazzinata nei tessuti.
Questo segnale, questa informazione che fa sì che venga eliminata una barriera allo
svolgersi di eventi, è alla base della catalisi, sia inorganica che enzimatica. Del resto, la
parola ‘catalisi’ (dal greco κατά e λυω, sciogliere verso il basso) ha esattamente questo
significato. Nella catalisi enzimatica, l’informazione è -per così dire- iscritta nella specifica
conformazione che permette all’enzima di esplicare la sua atiività. Tale conformazione, è
determinata a sua volta dalla sequenza in aminoacidi della proteina enzimatica (ovvero dalla
sequenza nucleotidica del gene che la codifica), ma anche dalla sua interazione con altre
molecole o con strutture cellulari (ad esempio membrane). Per quanto riguarda la sequenza,
l’alterazione anche di un solo aminoacido nel sito attivo della proteina enzimatica, pur non
alterandone sensibilmente il valore di AIC, la può rendere del tutto inattiva, e cioè incapace
di eseguire la sua specifica funzione di ‘rilascio’.

Serve davvero usare il termine “complessità” in biologia?


Sul finire degli anni 1960 venne introdotta, ai fini della caratterizzazione di un genoma,
una definizione operativa di complessità (la “complessità cinetica”) basata sulla velocità di
riassociazione tra frammenti a singola elica ottenuti spezzando a caso il DNA a doppia elica,
e successivamente portandolo ad una temperatura tale da fondere i legami di idrogeno tra le
due eliche (“denaturazione”). Riportando poi la soluzione ad una temperatura tale che i
legami distrutti si potessero riformare, si assisteva alla ricostituzione della successione
ordinata di legami, tanto più stabile quanto più estesa era la zona di complementarietà
(“rinaturazione”). La cinetica di riassociazione dipendeva pertanto dal grado di omogeneità
in sequenza della popolazione di frammenti: se vi erano porzioni ripetitive, i frammenti di
queste regioni avevano maggior probabilità di incontrare il frammento almeno parzialmente

8
complementare. Depurata della frazione ripetitiva a rapida riassociazione, la cinetica di
“rinaturazione” dava quindi un’idea del numero di diverse sequenze “uniche” di data
lunghezza media presenti nel genoma, e quindi dell’estensione della sua porzione non
ripetitiva. Una maggiore complessità cinetica (ovvero una cinetica di rinaturazione più lenta)
caratterizza dunque genomi in cui tale porzione è più estesa.
I dati sperimentali indicavano che la complessità cinetica è maggiore per gli eucarioti
che per i procarioti. Tra gli eucarioti era riconoscibile -al prezzo di trascurare importanti
eccezioni- una tendenza all’aumento delle dimensioni del genoma lungo quella che viene
comunemente chiamata “la scala evolutiva”.
Queste osservazioni hanno alimentato ulteriormente l’antico preconcetto -così difficile
da sradicare- secondo il quale l’evoluzione sarebbe direzionale e punterebbe dal semplice al
complesso.
Ora, è pur vero che è possibile identificare una serie di “grandi transizioni” (J.M.
Maynard Smith & E. Szatamary. The Major Transitions in Evolution. W.H. Freeman Press,
New York 1995) che si sono succedute nel tempo dell’evoluzione: quella da cellula
procariotica a cellula eucariotica, quella da organismo unicellulare a organismo
pluricellulare, quella da individuo isolato a società di individui dal comportamento
concertato (J. Tyler Bonner. The evolution of complexity. Princeton University Press,
Princeton N.J. 1998), Ciascuna di esse ha aperto nuovi campi di scelta, nuovi tipi di
concertazione tramite opportuni segnali o interazioni, e possibilità di selezione cui il livello
precedente è del tutto indifferente (M. Ageno, Le Radici della Biologia, Feltrinelli, Milano,
1986). Ma è appena il caso di ricordare che le transizioni non sono passi obbligati
nell’evoluzione, e che i batteri odierni sono il prodotto di un processo evolutivo che, a
partire da un procariote ancestrale, ha avuto una durata -misurata in tempi di generazione-
per molti ordini di grandezza maggiore di quella degli organismi pluricellulari. Questo
processo evolutivo, senza utilizzare alcuna delle nuove potenzialità aperte dalle grandi
transizioni, ha prodotto organismi estremamente sofisticati da un punto di vista biochimico,
il cui successo si può misurare dal fatto che la biomassa totale costituita da microorganismi
procariotici è probabilmente superiore a quella di tutti gli altri organismi messi insieme (E.
Mayr. What evolution is. Basic Books, New York, 2001).
Si possono peraltro citare casi che potrebbero essere visti come un passaggio inverso, dal
‘complesso’ al ‘semplice’: basti pensare ai virus, dotati spesso di bellissime forme
poliedriche, che non sono stati certo “progenitori” di cellule, dato che per riprodursi devono
parassitare queste ultime. Tra i parassiti si possono citare diversi altri casi di in-voluzione.

9
John Tyler Bonner (opera citata) nell’interrogarsi sul significato della transizione da uni-
a pluri-cellulare, o da individui isolati a comunità socialmente organizzate, parla anche di
livelli gerarchici di complessità (avendola definita come il numero di diverse parti
interagenti nel sistema considerato), ed osserva che maggiore complessità comporta
maggiore plasticità e flessibilità di comportamento. Qui per ‘comportamento’ non si intende
(solo) quello etologico (ad esempio, possiamo dire che la fagocitosi è un ‘comportamento’
presente negli eucarioti e inesistente nei procarioti) ma appunto la possibilità di azioni
funzionalmente concertate, non riducibili al livello precedente.
Sembra dunque di poter evitare qualsiasi teleologia e nello stesso tempo ogni ingenuo
riduzionismo riconoscendo con Ageno (opera citata) che ognuna delle grandi transizioni
apre l’accesso ad un nuovo “campo di indifferenza”, cioè ad un campo di scelte che non
sono predicibili sulla base delle regole che governano i livelli precedenti. Il progressivo
affrancamento dal rigido determinismo chimico-fisico e biologico implicito in questa
interpretazione in un certo senso ci riporta al concetto fisico di complessità.
Pur condividendo pienamente questa impostazione, personalmente continuo a ritenere
fuorviante parlare di “livelli di complessità”, e trovo preferibile la nozione di “aree di
indifferenza”. Esprimo in forma interrogativa la mia perplessità circa l’utilità del termine
‘complessità’: è più complessa la struttura di una società di formiche o quella di una
formica? E’ più complessa la struttura di un’orchestra o quella di un violino?
Come si evince da questi interrogativi, ciò che confonde le idee è che si finisce per
parlare di maggiore o minor complessità non solo nel passaggio da un livello ad un altro, ma
anche all’interno di uno stesso livello, in senso per così dire orizzontale, per cui ciò che è
complesso ad un dato livello può essere semplice ad un livello superiore. Così la struttura
lineare di un poliribosoma (la catena di ribosomi associati ad un RNA messaggero durante la
sintesi della proteina in esso codificata) può essere considerata più semplice della struttura
tridimensionale di un singolo ribosoma (costituito da almeno due tipi di RNA e da una
notevole varietà di proteine, con interazioni specifiche tra i componenti).
Vorrei allora concludere con la provocatoria domanda: non sarebbe meglio bandire il
termine “complessità” dalla biologia?

10

Potrebbero piacerti anche