Sei sulla pagina 1di 126

Universit degli Studi di Trento

DIPARTIMENTO DI MATEMATICA
Corso di Laurea Specialistica in Matematica

Tesi finale

ANALISI DI SISTEMI COMPLESSI


CON APPLICAZIONE ALLE
NEUROSCIENZE

Relatore:
Chiar.mo Prof.
BONACCORSI
STEFANO

Presentata da:
BRESSAN STEFANIA
Mt. 136071

ANNO ACCADEMICO 2012-2013

ii

iii

A mamma e pap,
per il loro infinito amore

iv

Ringraziamenti

Ringrazio il prof. Stefano Bonaccorsi per la sua straordinaria comprensione


e per la sua pazienza. Gli sono riconoscente perch mi ha permesso di
realizzare un lavoro su dei temi nuovi che mi ha reso felice e soddisfatta.
Ringrazio i professori e i dipendenti dellUniversit di Trento, in particolare
del Dipartimento di Matematica, per avermi permesso di studiare in un
ambiente stimolante e, allo stesso tempo, sereno. Sono orgogliosa e fiera di
aver studiato qui. Ringrazio la professoressa Marina Scarpa che mi ha
trasmesso tanto entusiasmo e passione per lo studio della biofisica.
Ringrazio il professor Luigi Gratton e Stefano Oss per le loro lezioni
illuminanti. Ringrazio tutte le persone che mi hanno sostenuto anche solo
con un sorriso nelle giornate buie e che non hanno mai smesso di credere in
me. Mi riferisco in modo particolare a mia mamma Graziella e mio pap
Loris, grazie per i vostri sacrifici e il vostro aiuto: senza di voi, non ce
lavrei mai fatta. Questa laurea per voi! Infine, un ringraziamento
speciale a Toto, Roby, Layla, Elio e tutti gli altri, per la vostra compagnia,
la vostra fiducia e il vostro incondizionato amore.

vi

Indice
1 Presentazione
1.1 Nota introduttiva . . . . . . . . . . . . . . . . . . . . . . . . .
2 Storia delle neuroscienze
2.1 Introduzione . . . . . . . . . . .
2.2 Le origini delle neuroscienze . .
2.3 Il periodo greco . . . . . . . . .
2.4 Il periodo romano . . . . . . . .
2.5 Dal Medioevo al Seicento . . . .
2.6 Il Settecento . . . . . . . . . . .
2.7 LOttocento e la grande disputa
2.8 Dal Novecento ai giorni nostri .

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

3 Il cervello e i neuroni
3.1 Lunit funzionale del cervello . . . . .
3.2 La fisiologia del cervello . . . . . . . .
3.3 La fisiologia dei neuroni . . . . . . . .
3.3.1 Introduzione . . . . . . . . . . .
3.3.2 Anatomia . . . . . . . . . . . .
3.3.3 La natura elettrica del segnale .
3.3.4 Il modello di Hodgkin e Huxley
3.4 La dualit dellorganizzazione cerebrale

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

4 Analisi dei sistemi neurali


4.1 Introduzione . . . . . . . . . . . . . . . . . . . . . . . . .
4.2 Complessit Neurale . . . . . . . . . . . . . . . . . . . .
4.3 Un approccio topologico alla complessit neurale . . . . .
4.4 Il caso del sistema non isolato . . . . . . . . . . . . . . .
4.5 Misure strutturali delle reti . . . . . . . . . . . . . . . .
4.6 Sincronizzazione, rientro e binding problem . . . . . . . .
4.7 Linfluenza reciproca tra le due parti di una bipartizione
vii

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.

1
2

.
.
.
.
.
.
.
.

5
5
6
7
8
8
9
11
17

.
.
.
.
.
.
.
.

21
21
22
25
25
26
27
29
33

.
.
.
.
.
.
.

37
37
37
43
57
59
60
61

viii

INDICE
4.8

Emergenza della coscienza . . . . . . . . . . . . . . . . . . . . 63

5 Le reti neurali artificiali


5.1 Che cos una rete neurale artificiale? . . . . . . . . . .
5.2 La storia delle reti neurali artificiali . . . . . . . . . . .
5.3 Struttura di una ANN . . . . . . . . . . . . . . . . . .
5.4 Funzione di trasferimento . . . . . . . . . . . . . . . .
5.5 La differenza tra neurone biologico e neurone artificiale
5.6 Alcuni esempi di neuroni artificiali . . . . . . . . . . .
5.6.1 Il modello di McCulloch e Pitts . . . . . . . . .
5.6.2 Il percettrone . . . . . . . . . . . . . . . . . . .
5.7 Larchitettura delle reti neurali . . . . . . . . . . . . .
5.7.1 Le reti feedforward . . . . . . . . . . . . . . . .
5.7.2 Le reti feedback . . . . . . . . . . . . . . . . . .
5.8 Regola di Hebb . . . . . . . . . . . . . . . . . . . . . .
5.9 Classificazione delle reti neurali . . . . . . . . . . . . .
5.10 Lalgoritmo della retropropagazione dellerrore . . . . .
5.11 Le applicazioni . . . . . . . . . . . . . . . . . . . . . .
5.12 Conclusioni . . . . . . . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

65
65
66
70
73
74
74
75
76
78
78
78
79
80
81
81
82

6 Intelligenza Artificiale
6.1 Introduzione . . . . . . . . . . . . . . . . . . . .
6.2 Cenni storici . . . . . . . . . . . . . . . . . . . .
6.3 La macchina universale di Turing . . . . . . . .
6.3.1 Il problema della decisione di Hilbert e
incompletezza di Gdel . . . . . . . . . .
6.3.2 La risposta di Turing . . . . . . . . . . .
6.4 Fondamenti teorici dellAI . . . . . . . . . . . .
6.5 I primi programmi di Intelligenza Artificiale . .
6.6 Artificial Life . . . . . . . . . . . . . . . . . . .

83
. . . . . . . . 83
. . . . . . . . 84
. . . . . . . . 87
i teoremi di
. . . . . . . . 87
. . . . . . . . 89
. . . . . . . . 92
. . . . . . . . 93
. . . . . . . . 93

7 Presente e futuro
7.1 Introduzione . . . . . . .
7.2 Il computer diagnosta . .
7.3 Blue Brain . . . . . . . .
7.4 Human Brain Project . .
7.5 Il cervello ibrido dellIIT
7.6 Il progetto K computer .
7.7 Connettoma . . . . . . .

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

95
95
96
96
97
98
98
99

INDICE
8 Progetto museale
8.1 Introduzione . . . . . . . . . . . . . . . . . . . .
8.2 Progetto . . . . . . . . . . . . . . . . . . . . . .
8.2.1 La storia in breve . . . . . . . . . . . . .
8.2.2 Lesperimento di Hodgkin e Huxley . . .
8.2.3 Il cervello come sistema complesso . . . .
8.2.4 Le reti neurali artificiali: il percettrone .
8.2.5 Il sogno di Alan Turing . . . . . . . . .
8.2.6 Connettoma e lo Human Brain Project .

ix

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

101
. 101
. 102
. 102
. 102
. 103
. 103
. 103
. 103

A Richiami di Teoria dellInformazione


105
A.1 Mutua Informazione . . . . . . . . . . . . . . . . . . . . . . . 107
B Lalgoritmo della retropropagazione dellerrore

109

Bibliografia

113

INDICE

Elenco delle figure


2.1
2.3
2.4
2.5
2.6
2.7
2.8
2.9
2.10
2.11
2.12
2.13
2.14
2.15
2.16
2.17
2.18
2.19
2.20
2.21
2.22

Il Papiro Edwin Smith . . . . . . .


Unopera di Galeno . . . . . . . . .
De humani corporis fabrica-Vesalio
De homine-Cartesio . . . . . . . . .
Luigi Galvani . . . . . . . . . . . .
Statua di Galvani a Bologna . . . .
Una mappa frenologica . . . . . . .
Paul Broca . . . . . . . . . . . . .
Gustav Fritsch . . . . . . . . . . . .
Edouard Hitzig . . . . . . . . . . .
David Ferrier . . . . . . . . . . . .
Le aree di Broca e Wernicke . . . .
Mappa di Brodmann . . . . . . . .
Friedrich Goltz . . . . . . . . . . .
Karl Lashley . . . . . . . . . . . . .
La reazione nera . . . . . . . . . . .
Camillo Golgi . . . . . . . . . . . .
Santiago Ramon y Cajal . . . . . .
Alan Hodgkin . . . . . . . . . . . .
Andrew Huxley . . . . . . . . . . .
John Eccles . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

7
8
9
9
10
10
12
13
14
14
14
15
16
16
17
18
19
19
20
20
20

3.1
3.2
3.3
3.4
3.5
3.6
3.7

Il cervello . . . . . .
Anatomia del cervello
Anatomia del cervello
Schema di neurone .
Al microscopio . . .
Hodgkin e Huxley . .
Binding Problem . .

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

23
24
25
26
27
32
35

4.1

Due nodi distinti ed un cappio . . . . . . . . . . . . . . . . . . 51

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

xi

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

xii

ELENCO DELLE FIGURE


4.2
4.3
4.4
4.5
4.6

Due nodi distinti e due cappi . . . . . . . . .


Tre nodi coincidenti . . . . . . . . . . . . . . .
Due vertici distinti . . . . . . . . . . . . . . .
Quattro nodi distinti ma connessi a due a due
Due cicli e tre vertici distinti . . . . . . . . . .

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

51
52
52
53
53

5.1
5.2
5.3
5.4
5.5
5.6
5.7
5.8
5.9
5.10

Rete Neurale Artificiale . . . .


Warren S.McCulloch . . . . .
Walter Pitts . . . . . . . . . .
Frank Rosenblatt . . . . . . .
Rete Neurale Artificiale . . . .
I tre tipi di strati . . . . . . .
Modello di McCulloch e Pitts
Percettrone . . . . . . . . . .
Feedforward Networks . . . .
Feedback Networks . . . . . .

6.1
6.2
6.3
6.4
7.1
7.2
7.3
7.4
7.5

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

66
67
67
68
71
72
75
78
78
79

Alan Mathison Turing


David Hilbert . . . . .
Kurt Gdel . . . . . .
Statua commemorativa

. . . . . .
. . . . . .
. . . . . .
di Turing

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

87
88
88
90

Blue Brain Project .


Henry Markram . . .
Human Brain Project
ICab . . . . . . . . .
Human Connectome

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

96
97
97
98
99

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

Capitolo 1
Presentazione
La comunit scientifica unanime nel considerare lo studio del cervello la
sfida pi importante del ventunesimo secolo, pi importante perfino delle ricerche riguardanti lorigine della vita sulla Terra o lesistenza di altre forme di
vita nelluniverso e di pianeti abitabili, argomenti questultimi, che da sempre
affascinano luomo. Non a caso, lanno scorso, la Commissione Europea ha
deciso che uno dei due vincitori del bando FET, Future and Emerging Technologies, fosse lo Human Brain Project che ricever un finanziamento di ben
un miliardo di euro e che impegner ricercatori provenienti da almeno quindici paesi membri dell Unione Europea e quasi duecento istituti di ricerca.
Un sacrificio notevole, se si pensa alla crisi economica che ha messo in ginocchio le economie di gran parte dei paesi industrializzati, in particolare degli
stati europei. Eppure tanti motivi spingono le istituzioni ad investire nello
studio del cervello, in particolare nella sua struttura e nel suo funzionamento.
Uno di questi motivi dovuto ad un aspetto puramente scientifico: propria della natura umana la curiosit di sapere come avvengono precisamente
certe dinamiche biochimiche, descrivendone dettagliatamente levoluzione e
cercando di conoscerne le cause. In questo contesto, rientra uno dei lavori
pi importanti della storia delle neuroscienze, realizzato dai fisiologi statunitensi Hodgkin e Huxley, insignito del Premio Nobel nel 1963, che ha chiarito
il funzionamento dei neuroni descrivendolo, per la prima volta tra laltro,
in termini matematici. Se la moderna ricerca in neuroscienze costosa, il
costo dellignoranza sul cervello molto maggiore. Limpatto dei disturbi sul
sistema nervoso sulla nostra societ devastante: il morbo di Alzheimer, caratterizzato da una degenerazione progressiva di specifici neuroni del cervello,
e il morbo di Parkinson, grave malattia del sistema nervoso che determina
un grave deterioramento del movimento volontario, colpiscono attualmente
500.000 americani. Il costo annuale per la cura delle persone affette da demenza approssimativamente di 90 miliardi di dollari, per non parlare del
1

CAPITOLO 1. PRESENTAZIONE

costo in vite umane, visto che per queste malattie non ci sono cure n qualche tipo di prevenzione. E tutto questo dovuto alle poche conoscenze sul
funzionamento del cervello. Unaltra grande spinta proviene dallingegneria
e dalla robotica. Viviamo nellepoca del boom dellinformatica che ha reso
la nostra vita pi comoda e pi sicura, per se per molti aspetti il computer
dotato di enormi potenzialit, per certi altri ha dei limiti che cominciano
ad andare stretti, soprattutto se paragoniamo il computer con il cervello. Il
computer, contrariamente al cervello, non una macchina intelligente capace
di risolvere un problema per il quale non stato programmato: un computer
non capace di prendere delle decisioni. Il cervello dei vertebrati superiori,
invece, capace di imparare e con lintuizione e lingegno, a risolvere i problemi pi disparati. LIntelligenza Artificiale e la Cibernetica dalla met del
secolo scorso si propongono di costruire macchine che riescano ad imitare,
seppur in minima parte, il comportamento complesso del cervello. Da quando McCulloch e Pitts proposero il primo modello di rete neurale artificiale o
da quando il genio di Alan Turing elabor il progetto di Macchina Universale, molta strada stata fatta, tant vero che oggi le reti neurali artificiali
sono impiegate diffusamente nel mondo dellindustria e della tecnologia. I
neuroscienziati sono convinti che, nonostante tutto, siamo ancora agli inizi
di una rivoluzione che sconvolger la nostra societ e il nostro modo di vivere
ma sono molto fiduciosi che tra un decennio riusciremo ad imitare il comportamento di un vero cervello umano e tra non molto riusciremo a realizzare
quei progetti di Intelligenza Artificiale fino a qualche tempo fa immaginabili
solo nei film o nei romanzi di fantascienza.

1.1

Nota introduttiva

Se il mondo scientifico e tecnologico e le istituzioni di tutto il mondo stanno impiegando molte risorse ed energie a favore dello sviluppo delle neuroscienze, sia nellambito scolastico che in quello accademico, lo studio delle
neuroscienze non affatto popolare. Nelle scuole superiori, le neuroscienze
vengono trattate solo in occasione dello studio del sistema nervoso che rientra
nel programma di biologia; nelle universit, purtroppo, oltre ai corsi di medicina, di scienze cognitive, di psicologia e di cibernetica, le neuroscienze non
trovano ulteriore spazio, nonostante siano una grande interdisciplina, suddivisa in una quindicina di branche diverse, dalla matematica allinformatica,
dallingegneria alla filosofia, passando per la linguistica addirittura. Lintento di questo elaborato, allora, di estendere il lavoro dei neuroscienziati e, in
particolare, dei matematici specializzati in neuroscienze, a tutti gli studiosi
di scienze ma non solo, anche al grande pubblico, soprattutto ai curiosi e

1.1. NOTA INTRODUTTIVA

agli appassionati di scienza che frequentano musei, mostre e partecipano a


particolari eventi scientifici. Questa tesi stata sviluppata per far conoscere
al pubblico una piccola parte del grande mondo delle neuroscienze, condurlo
in un viaggio nel tempo tra le scoperte e le dispute che hanno fatto la storia
della disciplina, accompagnarlo in un viaggio dallinterno del cervello fino
allesterno, dai singoli neuroni biologici ai neuroni artificiali che compongono un dispositivo ANN, mostrandogli come, ad ogni livello di inquadratura,
ci sia un diverso tipo di approccio scientifico e, in particolare, matematico.
Per questo motivo, stato dato molto spazio alla storia e ai progetti attuali,
per rendere la trattazione pi interessante e completa. Inoltre, nel capitolo
dedicato allanalisi matematica dei sistemi complessi, volutamente si dato
pi spazio alla contestualizzazione e alla concretizzazione dei concetti matematici trattati, in modo da poter essere compresi anche da chi non ha molta
familiarit con la matematica. Per questo motivo, molti calcoli e molte dimostrazioni sono stati messi in secondo piano, allattenzione solo dei lettori
pi curiosi o dei matematici interessati. Nellultimo capitolo, vi il progetto
che ho ideato per trasformare questo elaborato in una mostra o un evento
da proporre ad un museo, come il Muse, Museo delle Scienze di Trento, ad
esempio, per concretizzare quellidea d viaggio nel tempo e nello spazio nel
grande mondo delle neuroscienze.

CAPITOLO 1. PRESENTAZIONE

Capitolo 2
Storia delle neuroscienze
Gli uomini dovrebbero sapere che da nientaltro, se non dal cervello,
derivano la gioia, i piaceri, il riso e gli sport, i dispiaceri e i dolori,
langoscia, lo sconforto e il lamento. Ed mediante il cervello, soprattutto,
che noi acquisiamo saggezza e conoscenza, e che possiamo vedere e sentire e
riconoscere ci che illecito e ci che giusto, ci che cattivo e ci che
buono, quello che dolce e quello che insipido... Ed sempre a causa
dello stesso organo che noi diventiamo pazzi e deliranti, e che ci viene
paura e ci assale il panico... Tutte queste cose dobbiamo sopportare da parte
del nostro cervello quando questo non in salute... In questo senso, sono
del parere che sia il cervello a esercitare sulluomo il pi grande potere.
Ippocrate, Sul male sacro (IV secolo a.C.)

2.1

Introduzione

La parola neuroscienze deriva dallinglese neuroscience, un neologismo


coniato nel 1972 circa dal biologo e microscopista statunitense Francis O.
Schmitt (1903-1995), scopritore di importanti fatti riguardanti la struttura
delle cellule nervose. Grazie alla sua attivit, si convinse che il modo migliore per studiare il sistema nervoso e, in particolare, il cervello, fosse quello di
unire scienziati di diverse formazioni accademiche, dai fisiologi, ai biochimici,
passando per matematici, fisici, chimici, neurologi, psichiatri, ingegneri, perfino filosofi e sociologi. Per questo, negli anni Settanta fond il primo gruppo
di ricerca per la neuroscienza in una struttura poco distante dal Massachusset Institute of Technology. Precisamente, le neuroscienze sono lo studio
scientificamente condotto sul cervello e sul sistema nervoso con lobiettivo
di comprenderne la struttura e il funzionamento, sia per un aspetto puramente scientifico che applicativo: carpire i segreti del cervello per costruire
5

CAPITOLO 2. STORIA DELLE NEUROSCIENZE

delle macchine intelligenti lobiettivo delle neuroscienze computazionali, ad


esempio.
Le neuroscienze presentano elementi particolari che le distinguono dalle altre
scienze biologiche, soprattutto, per loggetto di studio. In questa circostanza,
il cervello che studia se stesso. Si pensi che fino alla fine del XIX secolo, le
uniche vie conosciute per condurre questi studi rimanevano esclusivamente
allinterno del cervello stesso, con le elucubrazioni filosofiche o quelle proprie
della psicologia che proponevano teorie per comprendere lorigine ed il funzionamento del pensiero e delle attivit cerebrali pi importanti. Lo sviluppo
della neurobiologia e delle tecniche di neuroimaging, come lelettroencefalogramma, ci ha permesso di analizzare il cervello anche dallesterno, consentendo alloggettivo e rigoroso metodo scientifico di imporsi sulla scena.
Inoltre, rispetto alle altre branche della biologia, la neurobiologia ha incontrato notevoli difficolt: in varie epoche storiche, il cervello stato associato
ad enti extrafisici quali la mente e lanima e quindi ha avuto delle valenze
complesse che hanno reso difficile e problematico lo sviluppo della sua analisi.

2.2

Le origini delle neuroscienze

La storia delle neuroscienze comincia nel momento in cui i nostri antenati si


resero conto che il cervello era di decisiva importanza per la vita. Reperti
archeologici risalenti allera neolitica attestano che era conosciuta la tecnica
della trapanazione del cranio a scopo curativo: i teschi mostravano segni di
guarigione dopo loperazione, il che ha convinto gli studiosi che la procedura
veniva eseguita su soggetti vivi e non si trattatava di un mero rituale postmortem. Alcuni individui riuscivano a sopravvivere a pi operazioni craniche.
Non chiaro quale fosse lo scopo di queste procedure, tuttavia alcuni scienziati ritengono che servisse per curare mal di testa o disturbi mentali, secondo
altri, che in questo modo si potesse dare una via di fuga agli spiriti maligni.
A questa tecnica fecero ricorso anche gli Egizi, vissuti tra il 3100 a.C. e il
1075 a.C. circa, che ebbero il merito di studiare il cervello pi a fondo, come
testimoniano numerosi scritti lasciati da medici e da alcuni studiosi.
Il Papiro Edwin Smith il primo testo scritto della storia in cui sia documentata la parola cervello. Gli Egizi ricavarono interessanti conoscenze sui
sintomi dei disordini mentali, sulle conseguenze di particolari lesioni cerebrali
e delleffetto delluso di droghe, quali analgesici, sonniferi e calmanti. Tuttavia, come scrisse Erodoto (484 a.C.), studioso di popolazioni antiche, per
gli Egizi lorgano pi importante del corpo umano era il cuore, inteso come
sede dellanima e della memoria. Non a caso, infatti, nel processo di imbalsamazione, il cranio veniva completamente svuotato ed il cervello buttato via,

2.3. IL PERIODO GRECO

Figura 2.1: Il Papiro Edwin Smith

mentre il resto del corpo veniva attentamente preservato per la vita dopo la
morte.

2.3

Il periodo greco

Tre studiosi hanno animato la scena delle neuroscienze nel periodo greco.
Ippocrate (460-379 a.C.), il padre della medicina occidentale, rivoluzion
le credenze ereditate dagli Egizi sostenendo con determinazione che il cervello
avesse un ruolo importante negli organismi degli esseri viventi: era il centro
delle sensazioni e sede dellintelligenza. Platone (328-348 a.C.), in sintonia
con le idee di Ippocrate, era convinto che il cervello fosse la sede della parte
razionale dellanima. Tuttavia, il suo allievo Aristotele (384-322 a.C.) non
fu dello stesso avviso e le sue convinzioni furono cruciali e influenzarono in
modo massiccio le convinzioni di tutti quelli che vissero dopo di lui, non solo
nel campo delle neuroscienze. Ader alla credenza che fosse il cuore il centro
dellintelletto e che il cervello fungesse semplicemente da radiatore capace di
raffreddare il sangue surriscaldato dal cuore in ebollizione. Il temperamento
razionale proprio degli uomini veniva spiegato mediante la grande capacit
di refrigerazione da parte del cervello.

2.4

CAPITOLO 2. STORIA DELLE NEUROSCIENZE

Il periodo romano

Molti secoli dovettero passare prima che la concezione ippocratica venisse presa nuovamente in considerazione. Questo fu dovuto a Galeno (129-216 d.C.), senza dubbio
la figura pi importante della medicina romana. Svolgeva la sua professione di medico tra i gladiatori,
pertanto molto spesso era testimone delle sfortunate conseguenze di
lesioni spinali e cerebrali. Tra le
sue tante scoperte, degna di nota
quella legata alla razionalit, che
secondo lui si trovava nel cervello,
altrimenti non avrebbe potuto spiegare il motivo per cui i pazienti con
lesioni al cervello perdessero le loro facolt mentali. Praticava spesso la dissezione di animali: questa
tecnica gli serv per dedurre la funzione dellencefalo e del cervelletto
Figura 2.3: Unopera di Galeno
dalla loro struttura e dalla loro consistenza. In particolare, ipotizz che il cervelletto dovesse comandare i muscoli data la sua consistenza piuttosto solida, mentre lencefalo, pi tenero
al tatto, dovesse essere il centro delle emozioni. Nonostante il suo metodo di
indagine fosse discutibile, le deduzioni di Galeno risultano ancora oggi vere.
Curioso di capire come il cervello riuscisse a ricevere sensazioni e a far muovere gli arti, dissezion un cervello e si accorse che era cavo. In questi spazi
cavi, che chiam ventricoli, not la presenza di un fluido: secondo lui, questo
provava una teoria gi nota secondo cui il corpo funzionava in accordo ad
un bilanciamento tra quattro fluidi vitali o umori. Le sensazioni venivano
registrate e i movimenti avviati a partire dallo spostamento degli umori da
o verso i ventricoli del cervello attraverso i nervi che si riteneva fossero tubi
vuoti come i vasi sanguigni.

2.5

Dal Medioevo al Seicento

La visione del cervello di Galeno prevalse per almeno 1500 anni. Nel periodo medievale, non ci sono molte scoperte importanti da ricordare a parte il

2.6. IL SETTECENTO

lavoro di alcuni studiosi arabi, come Abulcasis, Averroes, Avenzoar e Maimonides che descrissero dettagliatamente alcune malattie e disfunzioni legate al
cervello.
Nel periodo rinascimentale, degni di nota sono gli studi del medico e anatomista fiammingo Andrea Vesalio (1514- 1564). Considerato il padre della moderna anatomia, rigett quasi completamente la medicina galenica e, grazie alla tecnica da lui intrapresa, ovvero lesame autoptico, riusc a comprendere meglio la struttura ed il
funzionamento del sistema nervoso.
Venne rafforzata soltanto la teoria Figura 2.4: De humani corporis fabricadella localizzazione ventricolare che Vesalio
spinse molti studiosi francesi a considerare il cervello come una macchina
idraulica. Il principale sostenitore di questa teoria fu il filosofo e matematico
francese Cartesio (1596-1650) che, tuttavia, non riteneva che questa teoria
potesse offrire una spiegazione del funzionamento del cervello e del comportamento animale, in quanto dotato di due enti quali lintelletto e lanima
donati da Dio.
Secondo Cartesio, dunque, i meccanismi del cervello potevano controllare il comportamento umano solo per quegli aspetti che lo facevano
assomigliare a quello delle bestie; le
capacit mentali unicamente umane esistevano fuori dal cervello, nella mente, considerata unentit spirituale.
Figura 2.5: De homine-Cartesio

2.6

Il Settecento

La grande svolta nello studio del cervello arriv nel Settecento grazie allevoluzione degli studi sullelettricit. Nel 1751 Benjamin Franklin (17061790), politico e scienziato statunitense, pubblic un trattato intitolato Esperimenti e osservazioni sullelettricit in cui annunci la scoperta di alcuni
fenomeni elettrici fino a quel momento ignorati o incompresi: sue sono le
invenzioni del parafulmine e la batteria elettrica, sue la scoperte della natu-

10

CAPITOLO 2. STORIA DELLE NEUROSCIENZE

ra del fulmine e la teoria, riconosciuta da tutti, alla base della bottiglia di


Leida.
Luigi Galvani (1737-1798) fu
un fisiologo, fisico e anatomista italiano. conosciuto da tutti come
lo scopritore dellelettricit biologica: la galvanizzazione, tecnica da
lui perfezionata in seguito alla scoperta per cui conosciuto, una
tecnica che ancora oggi si usa per
stimolare muscoli o nervi a fini diagnostici. Galvani era specializzato
in chirurgia e intorno al 1790, la sua
attenzione venne attirata dalle conFigura 2.6: Luigi Galvani
clusioni degli esperimenti condotti
da alcuni fisiologi a lui contemporanei che stimolando in modo opportuno
un nervo vedevano il muscolo ad esso collegato contrarsi. Nel 1790, Galvani
stesso si accorse del fenomeno dissezionando una rana. Condusse pi volte
lo stesso esperimento che consisteva nellinserire in un nervo di una zampa
della rana un elettrodo opportunamente collegato ad una macchina elettrica.
Come scrisse nel trattato pubblicato un anno dopo, il De viribus electricitatis in motu musculari commentarius, lesperimento lo sorprese cos tanto che
venne invaso da un incredibile desiderio di ripetere lesperienza e di portare
in luce ci che di occulto cera ancora nel fenomeno.
In seguito a numerosi e accuratissimi esperimenti, Galvani giunse alla conclusione che
dovesse esistere una relazione fra elettricit e
la vita tant che la defin elettricit intrinseca
allanimale. Ma non si ferm qui: era dellidea
che lelettricit venisse prodotta dal cervello e
fosse controllata attraverso i nervi. Nonostante fosse stata accolta con molto entusiasmo da
molti fisiologi, la teoria di Galvani incontr la
ferrea opposizione del pi grande fisico italiano
dellepoca, Alessandro Volta, che gi allepoca
godeva di una grandissima stima e credibilit
nel mondo accademico. Volta non condivide- Figura 2.7: Statua di Galva le conclusioni a cui giunse Galvani perch vani a Bologna
pensava che le contrazioni dei muscoli non fossero causate dallelettricit dellanimale ma piuttosto da unirritazione dei
nervi. Ben presto, lapprofondimento di questi esperimenti condussero Volta

2.7. LOTTOCENTO E LA GRANDE DISPUTA

11

allinvenzione e alla messa a punto della pila voltaica, vista dagli scienziati
di tutto il mondo come la rivoluzione del secolo. Nonostante questo, gran
parte dei fisiologi erano convinti della validit della nuova teoria formulata
da Galvani prima e il biologo tedesco Du Bois-Reymond dopo, secondo la
quale i nervi erano dei fili che conducevano segnali elettrici dal e al cervello.

2.7

LOttocento e la grande disputa

I principali dibattiti nella ricerca sul cervello hanno avuto origine alla fine
del XVIII secolo e, in modo quasi sorprendente, erano simili e contemporanei alla diatriba tra i fisici impegnati a stabilire se la natura della luce fosse
ondulatoria o corpuscolare. E a soprendere ancora di pi, il fatto che il
fisico britannico Thomas Young svolse un ruolo chiave in entrambe le controversie scientifiche, come si vedr in seguito. Questa disputa terr banco
per pi di un secolo: si deve aspettare il ventesimo secolo per avere maggiori
informazioni sulla struttura e sul funzionamento del cervello e per capire che,
come la luce, anche il cervello si caratterizza per questa doppia natura. Assodato ormai che lorganismo fosse costituito da un sistema di fili, i nervi, su
cui scorrevano i segnali elettrici che mettevano in comunicazione il cervello
con le varie parti del corpo in entrambe le direzioni, i fisiologi si occuparono
sempre di pi dellanatomia del sistema nervoso, praticando dissezioni del
cervello e dei muscoli. Videro che gli arti e gli organi preposposti ad una
particolare funzione erano associati a nervi che avevano radici spinali o terminavano in aree cerebrali diverse. Inoltre, a seguito di numerose analisi fatte
su pazienti che mostravano lesioni al cervello, si cap che le alterazioni del
comportamento rilevate erano correlabili direttamente con il danno corticale.
I pazienti con lesioni localizzate in parti diverse del cervello mostravano tipi
diversi di conseguenze. I neuroscienziati, allora, si interessarono al legame
tra danni cerebrali e aree danneggiate. Lanatomista tedesco Franz J. Gall
(1758-1828) era uno di questi ma si ferm allanalisi esterna del cranio: not
che la superficie del cervello era caratterizzata da notevoli protuberanze e si
chiese se anchesse presiedessero a funzioni differenti. Per fugare ogni dubbio,
Gall e i suoi seguaci raccolsero un gran numero di dati sulle misurazioni e
palpazioni di crani di centinaia di persone rappresentanti tutte le tipologie
di personalit, dai grandi talenti ai pazzi e criminali. Raccolse i suoi dati e
nel 1809 pubblic le sue conclusioni: nacque cos la frenologia (dal greco
phren=mente e logo=studio) che aveva lobiettivo di determinare le qualit psichiche e la personalit dellindividuo dalla valutazione di particolarit
morfologiche del cranio, come bozze, depressioni o linee evidenti. In seguito,
furono create le prime mappe frenologiche che avevano lobiettivo di rappre-

12

CAPITOLO 2. STORIA DELLE NEUROSCIENZE

sentare graficamente la distribuzione delle funzioni cerebrali nella corteccia


cerebrale.

Figura 2.8: Una mappa frenologica


La frenologia non riusc a sopravvivere alla revisione scientifica successiva,
non a caso la maggior parte della comunit scientifica di allora si mostr in
netto disaccordo con le bizzarre conclusioni di Gall, che non poggiavano su
un rigoroso metodo scientifico. Nonostante questo, Gall e i suoi sostenitori
continuarono a diffondere le loro idee con lezioni e conferenze in tutta Europa, in particolare il concetto per cui le funzioni mentali sono spazialmente
localizzate in moduli specializzati nella corteccia. Questo il principio fondamentale della localizzazione, una teoria neuroscientifica che sosteneva che
diverse qualit mentali avevano origine in regioni del cervello separabili tra
di loro.
Nel 1811, due anni dopo la pubblicazione dellarticolo di Gall, venne
pubblicato un altro articolo che scuoter il mondo scientifico e indurr gli
scienziati a dividersi in due branche dai principi completamente opposti.
Sulla scia del successo e della soddisfazione per la pubblicazione della sua
teoria sulla natura ondulatoria della luce, lanno successivo il grande scienziato Thomas Young (1773-1829) incominci ad elaborare la sua teoria
tricromatica della visione a colori che in seguito diventer la sua teoria della
codifica neurale distribuita. Con Young dunque aveva origine unaltra teoria
neuroscientifica sulla struttura e sul funzionamento del cervello che venne
chiamata distribuzionismo o olismo, secondo la quale il cervello farebbe
affidamento su popolazioni di neuroni per codificare linformazione. Dora in
avanti, la neuroscienza si vedr sdoppiata in due grandi branche dai principi

2.7. LOTTOCENTO E LA GRANDE DISPUTA

13

completamente opposti, e dovr sopportare una lunga disputa che, secondo


molto neuroscienziati, cominciata proprio tra Young e Gall.
Young fu incuriosito dalla teoria cromatica di Newton secondo la quale
tutti i colori possono essere ottenuti mescolando i colori spettrali. Avanz
lipotesi che la percezione dei colori dipendesse dalla presenza della retina
di tre diversi tipi di fibre nervose reagenti a tre particolari tipi di colori:
il rosso, il verde ed il violetto. Verso la fine del XIX secolo, i ricercatori
riuscirono a dimostrare lesistenza dei tre recettori del colore e nel 1964 arriv pure la conferma sperimentale della loro esistenza e delle loro specifiche
sensibilit nei confronti delle lunghezze donda, grazie a sofisticate tecniche
di microspettrofotometria. La teoria di Young mostrava come nella retina,
cio unestensione del cervello, coesistessero tre tipi di unit funzionalmente
indipendenti capaci di lavorare insieme e di restituire ununica risposta. Di
certo questa teoria non poteva trovare riscontro nella struttura teorica del
localizzazionismo.
Il tentativo di distinguere zone funzionali differenti nella corteccia cerebrale sulla base di cambiamenti del comportamento ha visto impegnati molti
neurologi francesi dei primi tre decenni del XIX secolo. Il fisico e medico francese Jean Baptiste Bouillaud (1796-1881) pubblic nel 1825 un trattato
in cui incluse uno dei primi studi sulla localizzazione delle funzioni cerebrali.
Studiando paralisi e disturbi del linguaggio in pazienti con lesioni cerebrali, si
convinse dellorigine corticale dei disturbi motori e la localizzabilit dei centri corticali sulla base della correlazione anatomo-clinica fra paralisi e danno
cerebrale localizzato, nonostante non fosse mai riuscito a dimostrare le sue
ipotesi.
Unimportante vittoria ottenuta dalla fazione dei
localizzazionisti avvenne nel 1861 quando il giovane neurologo e chirurgo francese Paul P. Broca
(1824-1880) descrisse il cervello di un paziente degente per molti anni nellospedale della Salpetrire.
Costui manifestava un disturbo nellarticolazione del
linguaggio tant che aveva perso quasi del tutto la
capacit di parlare e aveva la parte destra del corpo
gravemente paralizzata, per non mostrava paralisi
nei muscoli della fonazione. Broca esamin attentamente il cervello del paziente e dopo averlo disse- Figura 2.9: Paul Brozionato accuratamente, scopr che cerano profonde ca
lesioni nel lobo frontale sinistro del cervello.
Questa scoperta sembrava provare che le funzioni mentali fossero localizzate separatamente in parti distinte del cervello, in particolare, la capacit di
parlare si trovava nella sezione mediana e convessa del lobo frontale sinistro

14

CAPITOLO 2. STORIA DELLE NEUROSCIENZE

degli esseri umani. Questo disturbo che porta il suo nome, afasia di Broca,
fu il primo disturbo delle funzioni superiori ad essere correlato ad un danno
discreto del cervello e pose una pietra miliare per una nuova teoria delle localizzazioni cerebrali. Infatti, fu sufficiente un semplice decennio per mettere
in evidenza la produttivit delle scoperte di Broca.
Nove anni pi tardi, due scienziati tedeschi, lanatomista tedesco Gustav
T. Fritsch (1838-1927) ed il neurologo e neuropsichiatra Edouard Hitzig
(1839-1907) sferrarono quello che apparentemente poteva sembrare il vero
colpo di grazia alle teorie antilocalizzazioniste. Lesperimento determinante
avvenne nel 1870 a casa di Fritsch, dato che lUniversit di Berlino non permetteva sperimentazioni di questo tipo: vennero applicate delle lievi correnti
elettriche nella corteccia cerebrale di un cane non anestetizzato e quello che
scoprirono fu che la stimolazione elettrica di aree diverse del cervello causavano contrazioni muscolari involontarie in parti specifiche del corpo del cane.
Poterono cos identificare larea motoria del cervello che controllava vari movimenti del corpo come una striscia di tessuto dietro al lobo cerebrale. Nello
stesso anno, Hitzig pubblic Sulleccitabilit elettrica del cervello: era la prima volta che si fece uno studio localizzato che riguardasse il cervello e la
corrente elettrica. Per Hitzig, in realt, non era la prima volta: anni prima,
lavorando come fisico presso larma prussiana, condusse degli esperimenti su
soldati feriti i cui crani erano fratturati dai proiettili e gi allora not che
cera una relazione tra particolari aree cerebrali e particolari parti del corpo.
Il lavoro di Hitzig e Fritsch spian la strada a molti neurologi che si impegnarono in molti altri tipi di esperimenti, in particolare al neurologo e psicologo
scozzese David Ferrier (1843-1928).

Figura 2.10: Gustav Fritsch

Figura
2.11:
Edouard Hitzig

Figura 2.12: David Ferrier

Considerato uno dei pi grandi neurofisiologi e neurologi di tutti i tempi, nella sua lunga carriera si interess principalmente della localizzazione
delle funzioni cerebrali e pubblic nel 1876 unopera che considerata uno

2.7. LOTTOCENTO E LA GRANDE DISPUTA

15

dei grandi classici delle neuroscienze, Le funzioni del cervello, seguita da La


localizzazione della malattia cerebrale pubblicata dodici anni pi tardi. Tra i
risultati pi importanti di Ferrier, c la dimostrazione che una stimolazione
corticale di lieve intensit produceva una mappa delle funzioni motorie: riusc ad elaborare la prima cartografia corticale nei primati non umani. Inoltre,
Ferrier dedusse che si otteneva la perdita di una funzione specifica se le stesse
aree stimolate venivano artificialmente danneggiate.
Nel 1873, Carl Wernicke (1848-1905),
psichiatra e neurologo tedesco, descrivendo alcuni pazienti che presentavano lincapacit di comprendere il linguaggio in
assenza di disturbi del linguaggio parlato, correl tali disturbi ad una lesione
della corteccia nel giro temporale superiore sinistro. Questarea si pensava fosse
un centro del linguaggio e venne chiamata area di Wernicke. Le scoperte di
Broca e di Wernicke portarono i neurofisiologi alla convinzione che forme com- Figura 2.13: Le aree di Broca e
plesse dellattivit mentale potessero es- Wernicke
sere ritenute funzioni di aree limitate e definibili dalla corteccia cerebrale e
quindi essere localizzate ad aree corticali. Cera molto entusiasmo: infatti
processi mentali molto complessi non erano altro che il risultato dellattivit
di singole aree della corteccia cerebrale. Questo interesse per la localizzazione
diretta delle funzioni cognitive port in breve tempo allidentificazione di un
centro per ogni tipo di attivit. Ancora oggi viene presa in considerazione
dai neurologi la mappa citoarchitettonica del neurologo tedesco Brodmann
(1868-1918) che pubblic a varie riprese tra il 1903 e il 1914. Brodmann riusc ad eseguire degli studi molto accurati sulla corteccia cerebrale riuscendola
a suddividere in 52 regioni, ognuna diversa dallaltra per la caratteristiche
funzionali e citoarchitettoniche. Ancora oggi ci si riferisce alla sua topografia
negli studi anatomo-funzionali con lacronimo BA (Brodmanns Area).
Nonostante lascesa dellapproccio localizzazionista allo studio delle funzioni cerebrali, gli eredi di Young non si scoraggiarono, convinti che ci fossero
troppe lacune nella teoria segregazionista. Il fisiologo francese Jean Pierre
Flourens (1794-1867) fu uno strenue oppositore di Gall e contribu alla demolizione della frenologia. Studiando attentamente gli encefali dei piccioni,
si convinse del fatto che gli emisferi cerebrali fossero la sede dellintelligenza
e delle sensazioni, che lattivit motoria fosse propria del cervelletto e che
nel bulbo risiedessero i centri vitali. considerato da alcuni lantesignano
della teoria olistica del cervello che vede la corteccia cerebrale come un unico

16

CAPITOLO 2. STORIA DELLE NEUROSCIENZE

Figura 2.14: Mappa di Brodmann


organo responsabile delle attivit intellettuali e che domin il pensiero scientifico prima degli "splendidi anni Settanta". Tre importanti scienziati hanno
sostenuto, pur con differenti interpretazioni, la teoria olistica del cervello.
Il fisiologo tedesco Friedrich L. Goltz (18341902) fu innanzitutto contrario alla stimolazione elettrica per lo studio delle funzioni del
cervello. Riteneva che il "vecchio" metodo dellablazione fosse molto pi affidabile.
famoso il suo esperimento su un cane a
cui oper una decorticazione bilaterale: mostr come, dopo loperazione, il cane non avesse subito delle apprezzabili modificazioni nelle
sue capacit motorie o sensoriali, solo appariva pi stupido o idiota, come diceva lui. Per
questo Goltz era convinto che le tesi a cui era
giunto Ferrier fossero false. E passato alla sto- Figura 2.15: Friedrich Goltz
ria lo scontro pubblico tra Ferrier e Goltz al settimo Convegno Medico Internazionale che si tenne a Londra nel 1881 alla fine del quale una commissione
giudicatrice designata a dirimere la controversia rilev che il cervello del cane
operato da Goltz non presentava quelle estese lesioni che Ferrier riteneva di
aver prodotto. Il problema per che i dati sperimentali su cui si basavano
le prove di Goltz erano sostanzialmente errati.
Il neuropatologo svizzero di origini russe Costantin von Monakov
(1853-1930) introdusse un nuovo elemento nel problema della localizzazione corticale, sottolineando limportanza del fattore temporale. Introdusse il
concetto di localizzazione cronogenica di funzioni come il movimento ed il
linguaggio che risultavano distinte come localizzazione spaziale dei sintomi.
Monakov riteneva che durante lo sviluppo del cervello si formassero strati
cronologici piuttosto che strati spaziali e che la corteccia funzionasse non per

2.8. DAL NOVECENTO AI GIORNI NOSTRI

17

attivit di regioni circoscritte ma grazie allinterazione di diverse aree corticali tra loro collegate. Inoltre, sosteneva che i sintomi immediati conseguenti ad
una lesione cerebrale non fossero causati esclusivamente dal tessuto leso ma
fossero il risultato di un effetto secondario e distribuito chiamato diaschisi
che sopprimeva transitoriamente lattivit di regioni anche lontana dallarea traumatizzata. Limportanza della teoria di von Monakov sta nellavere
introdotto concetti che posero le basi per affrontare scientificamente il problema del recupero funzionale e che trasformarono la neurologia in una vera
scienza biologica in grado di fornire un contributo sostanziale alla conoscenza
dellorganizzazione funzionale del sistema nervoso centrale.
Il fisiologo americano Karl S. Lashley (1880-1958) svilupp la teoria
della equipotenzialit della corteccia cerebrale.
Egli riteneva che allinterno di una data regione
del cervello una funzione fosse ugualmente mediata da tutto il tessuto della regione stessa. Quindi,
se una regione veniva parzialmente danneggiata la
parte rimasta intatta avrebbe continuato a mediare
un determinato comportamento. Quindi, gli effetti di una lesione dipenderebbero pi dalla quantit
di tessuto danneggiato, quello che viene chiamato
Figura 2.16:
Karl effetto massa, allinterno di una struttura cerebrale, che dalla specifica substruttura distrutta. Quello
Lashley
che veniva quindi affermato dagli scienziati antilocalizzazionisti era che non ci si doveva aspettare che le zone del cervello fossero
localizzabili dato che i neuroni erano tutti collegati da una rete fissa. Questa
controversia di lungo corso si piano piano appianata grazie anche agli studi
di Tononi, Edelman e Sporns che studieremo nei prossimi capitoli: queste
due propriet cos diverse al punto da essere considerate antagoniste in realt convivono nei cervelli dei vertebrati superiori, anzi, la loro interazione
quello che rende un cervello davvero complesso.

2.8

Dal Novecento ai giorni nostri

Alla fine del XIX secolo, i fisiologi potevano contare su microscopi sempre
pi precisi e su nuove tecniche per lanalisi dei tessuti cerebrali, come la marcatura con coloranti artificiali. Una di queste tecniche era la reazione nera
inventata dallo scienziato e medico italiano Camillo Golgi (1843-1926), che
consisteva in una soluzione di acido osmico, bicromato di potassio e nitrato di argento. La combinazione di questi reagenti consente la deposizione
dellargento metallico da una soluzione del suo sale sulla superficie del neu-

18

CAPITOLO 2. STORIA DELLE NEUROSCIENZE

rone, evidenziandolo fin nei minimi particolari. Questa scoperta si rivel


fondamentale per lo studio del sistema nervoso: infatti, finalmente, si riusc
a vedere nettamente i fili che lo costituivano, e la struttura ramificata degli
assoni. Grazie a questa tecnica, Golgi riusc a distinguere vari tipi di cellule nervose, in particolare quelle del primo tipo, e quelle del secondo tipo.
Luso della tecnica della reazione nera diede un impulso alle scoperte nella
neurofisiologia.
Anche Santiago Ramn y Cajal (1852-1934),
medico, istologo e patologo spanolo ne fece ricorso
continuamente per analizzare il tessuto del sistema
nervoso. Era uno dei pi grandi scienziati del nuovo secolo, tant vero che vinse la Helmholtz Medal, uno dei pi importanti riconoscimenti a cui uno
scienziato potesse aspirare, per il suo lavoro pubblicato nel 1904 Tessuto del sistema nervoso delluomo
e dei vertebrati. Nel 1906 fu insignito del Premio
Nobel per la Medicina ex aequo con Camillo Golgi,
premiato per la messa a punto della reazione ne- Figura 2.17: La reara. Questo momento passer alla storia delle neuro- zione nera
scienze perch nello stesso anno e per la stessa disciplina vennero premiati
due neuroscienziati che in comune avevano solo labitudine di usare la tecnica
della reazione nera, i microscopi Zeiss e la cucina delle rispettive mogli per
eseguire i loro esperimenti. E fu la prima volta in assoluto che venne conferito il premio ex aequo. Ma i principi del pensiero dei due scienziati non
potevano essere pi diversi, tant vero che famosa la disputa che ebbero
lo stesso giorno, dopo aver ricevuto il premio. Cajal era sostenitore di quella
che possiamo chiamare evoluzione della teoria localizzazionista, ovvero la
teoria del neurone secondo la quale il cervello formato da grandi numeri di cellule singole che comunicano le une con le altre attraverso contatti
separati.
In totale contrasto con Cajal, Golgi fu uno strenuo sostenitore della teoria
opposta, la cosidetta teoria reticolare secondo la quale il cervello formato
non da singole cellule ma da unampia e continua maglia di tessuto cerebrale.
La teoria di Golgi il primo stadio di quella che diverr la teoria dei sistemi
e levoluzione della teoria distribuzionista. Infatti, Golgi non credeva nella
teoria localizzazionista perch secondo lui non era possibile che un tessuto
costituito da reti di neuroni comunicanti tra loro fosse suddiviso in tante
piccole aree funzionalmente indipendenti.
La teoria del neurone di Cajal fu accolta con molto entusiasmo presso
la comunit scientifica e sicuramente per i primi decenni del XX secolo si
pu affermare che ebbe la meglio sulla teoria avanzata da Golgi. Cos molti

2.8. DAL NOVECENTO AI GIORNI NOSTRI

Figura 2.18: Camillo Golgi

19

Figura 2.19: Santiago Ramon y


Cajal

neuroscienziati si dedicarono quasi esclusivamente a perfezionare la mappa


delle localizzazioni di Brodmann, arrivando a scoperte molto interessanti e
arricchendola di numerosi dettagli. Allo stesso tempo, le tecniche di analisi
delle aree cerebrali migliorarono notevolmente, e si deve ad Hans Berger
(1873-1941) linvenzione dell EEG nel 1924 arrivata grazie allidea cruciale
dello scienziato inglese Richard Canton (1842-1926) che comprese che la
natura del cervello era elettrica.
Uno dei pochi neuroscienziati a riprendere la teoria di Golgi fu il neurofisiologo inglese Sir Charles S. Sherrington (1857-1952): oltre ad analizzare
in modo approfondito il lobo frontale della corteccia delle scimmie, convinse
la comunit scientifica per la sua teoria secondo la quale la natura del pensiero
era distribuita. Secondo Sherrington, le funzioni neurologiche fondamentali
dipendevano dalla cooperazione tra numerose strutture periferiche e centrali
del sistema nervoso. Per questo, fu insignito del Premio Nobel assieme a Sir
Edgar Douglas Adrian (1889-1977). Questultimo, si occup di analizzare lattivit di singoli neuroni e usando lencefalogramma condusse molti
esperimenti per scoprire le cause dellepilessia. Pi tardi, i fisiologi Alan
Hodgkin (1914-1998) e Andrew Huxley (1917-2012) sono stati autori di
scoperte fondamentali sulle basi della conduzione del potenziale dazione nei
nervi, assieme al neurologo australiano John C. Eccles (1903-1997) a cui si
deve lidea dellattivazione per soglia.
Degno di nota il lavoro dello psicanalista e neuroscienziato statunitense
John C. Lilly (1915-2001) che andando controcorrente e seguendo le idee
distribuzioniste, fece molti esperimenti che scossero la comunit scientifica
ma che convinsero i neuroscienziati a cambiare approccio allo studio del cervello. Tra i suoi esperimenti pi importanti, da ricordare quello della vasca
di deprivazione sensoriale che lo convinse del fatto che il cervello continua a

20

CAPITOLO 2. STORIA DELLE NEUROSCIENZE

Figura 2.20: Alan


Hodgkin

Figura 2.21: Andrew Huxley

Figura
2.22:
John Eccles

funzionare anche senza stimoli esterni, e questo fu un punto a favore per i


distribuzionisti, e luso prolungato di ketamina, da cui ha elaborato un modello che prevede il progressivo espandersi della propria coscienza in diversi
gradi.
Miguel Nicolelis (1961), scienziato e fisico brasilian,o fu uno dei primi scienziati moderni a studiare il cervello non pi ad un livello cellulare
ma ad un livello pi ampio, coinvolgendo popolazioni di neuroni allo stesso
tempo. Abbandon lapproccio riduzionista seguito dalla maggior parte dei
neuroscienziati a lui contemporanei, convinti che il modo migliore per studiare il cervello fosse quello di comprendere fino in fondo il funzionamento
e la struttura di un singolo neurone e le sue connessioni. Nicolelis si ispir
alla rivolta che nel 1984 scoppi a San Paolo in Brasile: la massa di persone
che invocavano le elezioni era paragonabile al gruppo di neuroni del cervello.
Non era lazione di una singola persona la cosa determinante, ma lazione
sincrona della massa. A partire dalla fine del Novecento, dunque, le neuroscienze videro imporsi un nuovo approccio allo studio del cervello, quello dei
sistemi e a questo punto, si svilupp in modo sempre pi crescente limpegno
matematico. Per la prima volta, nel 1994 alcuni studiosi cercarono di collegare matematicamente la dualit del cervello e oggi la neuromatematica una
disciplina considerata fondamentale per le neuroscienze stesse. Lapproccio
dei sistemi rientra nel connessionismo, un modello per le scienze cognitive che
spiega il funzionamento della mente ispirandosi alla struttura del cervello in
quanto costituita da reti neurali. Questo approccio allo studio del cervello
molto importante perch si ritiene che considerando un grande numero di reti
si arriver a capire i meccanismi delle funzioni superiori del cervello, come la
coscienza, di cui ci occuperemo nei prossimi capitoli, per poterle applicare un
giorno alle macchine che sapranno pensare come gli uomini, di cui parleremo
nel capitolo 7.

Capitolo 3
Il cervello e i neuroni
3.1

Lunit funzionale del cervello

Un neurone medio ha allincirca diecimila connessioni con i suoi neuroni


vicini. Dati miliardi di neuroni, ci significa che ci sono tante connessioni
in un singolo centimetro cubo di tessuto cerebrale quante sono le stelle nella
Via Lattea. David Eagleman
Il cervello lorgano pi complesso dei vertebrati superiori e nonostante i grandi risultati ottenuti dalle neuroscienze negli ultimi cinquantanni,
purtroppo ancora molti meccanismi non sono conosciuti. La difficolt nello
studio del cervello sta anche nel fatto che organizzato in numerosi livelli
strutturali e funzionali e, come si visto nellultimo paragrafo del capitolo
precedente, da relativamente poco gli scienziati hanno cambiato punto il tipo
di approccio per analizzarlo. Complessivamente, possiamo studiare il cervello
da un punto di vista:
molecolare: si studiano ed analizzano in modo approfondito le molecole
presenti esclusivamente allinterno della cellula nervosa, come i neurotrasmettitori, le sentinelle che controllano che tipo di materiali possono entrare o uscire dal neurone e si analizzano i canali ionici neurali.
Questo il livello che viene studiato dalla neuroscienza molecolare.
cellulare: si studia il modo in cui le molecole lavorano insieme per
conferire alla cellula nervosa le sue speciali propriet. Si analizzano i
vari tipi di neuroni e il loro funzionamento.
corticale: studio delle colonne della corteccia contenenti 60.000 neuroni;
dei circuiti: si considerano circuiti di neuroni e se ne studia la loro
attivit: la visione, il movimento volontario e altro. Si studia come
21

22

CAPITOLO 3. IL CERVELLO E I NEURONI


i circuiti neurali differenti analizzano le informazioni sensoriali, come
formano la percezione del mondo esterno e come prendono decisioni ed
eseguono movimenti.
comportamentale: si considera linterazione di sistemi neurali che lavorano assieme per produrre comportamenti integrati. Si studia il
complesso fenomeno della memoria, le alterazioni dovute alle droghe, i
particolari fenomeni quali il sonno e il sogno.
superiore: si studiano i meccanismi neurali responsabili dei livelli pi alti dellattivit mentale umana, quali lautocoscienza, le immagini mentali e il linguaggio. Si studia anche in che modo il cervello crea la
mente.
esterno: con le tecniche di neuroimaging, si studia il cervello dall esterno, trascurando la struttura e lorganizzazione interna ma considerando solo gli impulsi elettrici delle aree cerebrali attive, registrati da
particolari elettrodi. Questo lapproccio seguito da Miguel Nicolelis,
ad esempio, che coglie solo queste caratteristiche del cervello per far
funzionare la sua recente invenzione, la Brain Machine Interface. Si
tratta di uninterfaccia tra il cervello e la macchina capace di fare da
ponte tra il cervello che elabora le risposte nervose e un computer che
le riceve e fa attivare una tuta-esoscheletro che mette in moto gli arti
di persone paralizzate.

Dopo unanalisi doverosa sulla fisiologia del cervello, la nostra attenzione


sar rivolta prima al livello cellulare del cervello, analizzando la struttura
ed il funzionamento dei neuroni e approfondendo il modello di Hodgkin e
Huxley. Alla fine del capitolo, ci occuperemo di un livello pi ampio, trattando la localizzazione ed il distribuzionismo, due caratteristiche peculiari
dellorganizzazione e del funzionamento del cervello. Nei capitoli successivi,
amplieremo sempre di pi linquadratura della nostra immaginaria macchina
fotografica, prima considerando il livello dei sistemi o reti neurali, nel capitolo 5, e poi generalizzando sempre di pi la nostra trattazione, analizzando
nel capitolo 6 le reti neurali artificiali e nel capitolo 7 i dispositivi pensati
dallIntelligenza Artificiale.

3.2

La fisiologia del cervello

Il cervello lorgano che assieme al midollo spinale, forma il sistema nervoso centrale, lapparato che opera per consentire allorganismo di mantenere

3.2. LA FISIOLOGIA DEL CERVELLO

23

stabile il proprio ambiente interno e di rispondere agli stimoli provenienti


dallesterno. lorgano pi complesso che esista in natura: si presenta come
un ammasso aggrovvigliato di vasi sanguigni e di cellule nervose. Si stima
che ce siano 100 miliardi, tutte connesse tra di loro: solo in astronomia si
incontra questo ordine di grandezza! Il cervello adulto di un essere umano
pesa in media 1,4 kg ed ha un volume pari allincirca a 1.130cm3 nelle donne
e allincirca 1.260cm3 per gli uomini, tenendo conto che la massa ed il volume
variano da persona a persona. Allet di 20 anni un uomo possiede in media
176.000km di assoni mielinati nel cervello, le donne 149.000km.

Figura 3.1: Il cervello


Comunemente, si suddivide il cervello in due grandi parti: la parte di
tipo arcaico, che comprende il tronco encefalico e lipotalamo, e la parte di
tipo recente che, a sua volta, si suddivide nel sistema limbico e nella corteccia
cerebrale. A questi due grandi gruppi, si aggiungono il cervelletto e il talamo.
Il tronco encefalico collocato tra i centri superiori ed il midollo spinale,
si trova nella parte inferiore del cranio. La sua funzione principale quella di
filtrare le informazioni che provengono dal sistema nervoso periferico e, allo
stesso tempo, responsabile dellalternanza dei cicli del sonno e della veglia
e del mantenimento dellomeostasi. La sua parte inferiore, chiamata midollo
allungato, responsabile di numerose funzioni vitali, ad esempio dei riflessi che regolano il battito cardiaco e la pressione sanguigna. Lipotalamo,
invece, si trova sopra al tronco encefalico ed ha la funzione di regolare la
secrezione di vari ormoni, interviene nella termoregolazione ed coinvolto
nella regolazione degli stimoli della fame e della sete. Questi due organi sono

24

CAPITOLO 3. IL CERVELLO E I NEURONI

dunque responsabili di quelle funzioni legate agli istinti e alle funzioni vegetative e sono collegati in modo automatico agli organi viscerali. Il sistema
limbico una complessa rete di tessuti nervosi situata al di sotto degli emisferi cerebrali che controlla risposte involontarie legate alle emozioni, come
ad esempio la contrazione dei muscoli.

Figura 3.2: Anatomia del cervello


La corteccia cerebrale la parte pi estesa del cervello del quale occupa
la parte superiore. formata da uno strato di materia grigia suddiviso in due
emiferi connessi al centro da un fascio di fibre tese chiamato corpo calloso.
Ha una consistenza gelatinosa e pu essere immaginata come un fazzoletto
rettangolare di dimensioni 40 50cm2 e di spessore di 3mm. accartocciata
in modo tale da occupare la maggior superficie possibile nel ristretto volume
della scatola cranica: i solchi sinuosi che ne derivano sono detti circonvoluzioni. Ogni emisfero riceve informazioni sensoriali e invia impulsi motori al lato
opposto del corpo ed suddiviso in quattro lobi (frontale, parietale, temporale e occipitale) allinterno dei quali vi sono determinate aree specializzate
per svolgere funzioni specifiche. La corteccia cerebrale la sede delle attivit superiori quali il pensiero, il linguaggio, limmaginazione e lintelligenza.
Il sistema limbico e la corteccia cerebrale formano la parte di tipo recente
del cervello perch sono coinvolte nelle funzioni superiori e si distinguono da
quelle istintive, come la fame, che si tramandano di generazione in generazione per assicurare la sopravvivenza della specie. Il sistema limbico, inoltre,
la sede dellemotivit che, si sa, si scontra con la razionalit, che ha sede
nella corteccia cerebrale.
Il cervelletto, localizzato nella parte posteriore ed inferiore del cervello
responsabile della coordinazione involontaria dei movimenti, come il mantenimento della postura e dellequilibrio. Il cervelletto la parte del cervello
a maggiore densit neurale: se lintero cervello contiene allincirca 1011 neuroni, si stima che nel cervelletto ce ne siano addirittura 1010 , ovvero quasi il

3.3. LA FISIOLOGIA DEI NEURONI

25

Figura 3.3: Anatomia del cervello


91% del totale. Infine, il talamo , posto tra il tronco e la corteccia cerebrale,
ha un ruolo di integrazione e smistamento dellinformazione sensoriale. Come la corteccia, un ammasso di sostanza grigia. La corteccia cerebrale e
il talamo, ovvero il tessuto talamo-corticale, sono le zone del cervello a cui
faremo esclusivamente riferimento nel corso della nostra trattazione.

3.3
3.3.1

La fisiologia dei neuroni


Introduzione

Il neurone lunit cellulare che costituisce il tessuto nervoso, il quale concorre alla formazione, insieme al tessuto della nevroglia e al tessuto vascolare,
del sistema nervoso. Grazie alle sue peculiari propriet fisiologiche e chimiche, in grado di ricevere, integrare e trasmettere impulsi nervosi, nonch
di produrre sostanze denominate neurosecreti. I diversi sistemi nervosi sono
senza dubbio le strutture pi complicate che si siano evolute sulla Terra.
In natura esistono diverse forme e dimensioni per i neuroni. I neuroni
pi piccoli hanno dimensioni dellordine del micrometro, mentre i pi grandi
possono raggiungere anche i 2 metri di lunghezza. Grazie agli assoni giganti
dei calamari, lunghi circa 1 metro, si sono potuti effettuare degli esperimenti
decisivi per la comprensione del meccanismo di attivazione dei neuroni e della

26

CAPITOLO 3. IL CERVELLO E I NEURONI

propagazione del segnale nervoso. Nel sistema nervoso dei vertebrati, esistono, in realt, diversi tipi di cellule: i neuroni e la glia. Queste due categorie,
a loro volta, contengono diversi tipi di cellule che differiscono per struttura,
chimica e funzioni. Il numero di glia supera di dieci volte il numero dei neuroni ma svolgono un ruolo secondario: non hanno la funzione di rilevamento
dei cambiamenti dellambiente esterno, non comunicano questi cambiamenti
agli altri neuroni n comandano le risposte del corpo alle sensazioni. Bens,
la glia si occupa di sostenere, isolare e nutrire i neuroni vicini. In questa
trattazione, ci occuperemo soltanto dei neuroni.

3.3.2

Anatomia

Un neurone prototipico una cellula dalla forma allungata in cui si distinguono nettamente tre zone: il soma, i dendriti e lassone. Come ogni cellula,
delimitato da una membrana che separa linterno dallesterno, chiamata
appunto membrana neuronale.
Il soma la parte centrale
del neurone ed ha una forma
pressoch sferica di diametro
di circa 20m. costituita
dal pirenofero nel quale risiedono il nucleo e gli altri organelli deputati alle principali funzioni cellulari. Le cellule nervose presentano poi allinterno del soma una zona
che, fissata con alcol e colorata con blu di metilene, si
colora a macchia di leopardo.
Questa zona assume il nome
Figura 3.4: Schema di neurone
di Zolla di Nissl o sostanza tigroide e rende la cellula nervosa pi riconoscibile a una sezione istologica. Dal
corpo cellulare hanno origine prolungamenti citoplasmatici, detti neuriti, che
sono i dendriti e lassone. I dendriti, che hanno diramazioni simili a un albero,
ricevono segnali da neuroni afferenti e lo propagano in direzione centripeta
cio verso il pirenoforo. La complessit dellalbero dendritico rappresenta
uno dei principali determinanti della morfologia neuronale e del numero di
segnali ricevuti dal neurone. A differenza dellassone, i dendriti non sono dei
buoni conduttori dei segnali nervosi che tendono a diminuire di intensit con
la distanza. Lassone conduce invece il segnale in direzione centrifuga, cio
verso le altre cellule. Ha un diametro uniforme ed un ottimo conduttore

3.3. LA FISIOLOGIA DEI NEURONI

27

grazie agli strati di mielina, una guaina lipidica arrotolata attorno agli assoni
che funge da dielettrico. La parte finale dellassone unespansione detta
bottone terminale. Attraverso i bottoni terminali un assone pu prendere
contatto con i dendriti o il corpo cellulare di altri neuroni affinch limpulso
nervoso si propaghi lungo un circuito neuronale.
Gli assoni delle cellule del sistema nervoso periferico sono ricoperti da due membrane protettive,
che isolano lassone impedendo la dispersione degli
impulsi elettrici. La membrana pi esterna prende
il nome di neurolemma o guaina di Schwann, quella
pi interna di guaina mielinica. Lungo il neurolemma sono presenti delle strozzature, in corrispondenza delle quali la guaina mielinica si interrompe, dette "nodi di Ranvier". I neuroni del sistema nervoso
simpatico (che trasmettono cio gli impulsi elettriFigura 3.5: Al micro- ci a muscoli involontari) non presentano in genere
la guaina mielinica, mentre altri neuroni mancano
scopio
invece del neurolemma (come ad esempio il nervo
ottico).

3.3.3

La natura elettrica del segnale

La trasmissione dei segnali dei sistemi nervosi pi evoluti di tipo elettrico,


molto probabilmente perch la trasmissione pi veloce che esista in natura:
garantisce ai vertebrati superiori la giusta sveltezza per ricevere gli stimoli
dallesterno e ad elaborare ed inviare le risposte. Descriviamo brevemente
quello che avviene in una cellula nervosa investita da uno stimolo. In condizioni di quiete, in un neurone si registra una differenza di potenziale di
membrana, tra linterno e lesterno della cellula pari a 70mV , chiamato
potenziale di riposo. Questo valore mantenuto costante dallazione di
una speciale proteina transmembrana chiamata pompa Na-K che trasporta
attivamente e simultaneamente 3 ioni sodio verso linterno e 2 ioni potassio
verso lesterno. Uno stimolo unonda depolarizzante che modifica il valore
del potenziale a riposo. Quello che accade nel punto del neurone investito dallo stimolo , dunque, un cambiamento della d.d.p. che, se raggiunge
un particolare valore soglia, scatena la reazione di propagazione. Oltre alle
pompe sodio-potassio, le membrane neurali sono ricche di tante altre proteine transmembrana, in particolare di canali ionici. La loro particolarit
che hanno dei pori selettivi e molto stretti: permettono il passaggio passivo,
ovvero senza richiesta di energia, di ioni inorganici. La loro funzione quella
di permettere a degli ioni specifici come il sodio N a+ , il potassio K + , il calcio

28

CAPITOLO 3. IL CERVELLO E I NEURONI

Ca2+ o il cloro Cl di diffondere rapidamente lungo i loro gradienti elettrochimici attraverso la membrana. Ogni ione, infatti, tende a spostarsi secondo
il proprio gradiente ionico e lequazione di Nerst una legge fisica che restituisce il valore del potenziale di equilibrio di ogni singolo ione considerato. Le
cellule nervose si sono specializzate nelluso di questi canali: utilizzano una
variet di canali di questo tipo per ricevere, condurre e trasmettere segnali.
Quando una sezione del neurone viene investita da una depolarizzazione che
supera un certo valore soglia, i canali ionici del sodio e del potassio vengono indotti ad aprirsi lasciando passare gli ioni per raggiungere lequilibrio
di riposo. La conseguenza di questa reazione il cambiamento della d.d.p.
transmembrana che a sua volta causa un ulteriore incremento della permeabilit del sodio. Questa reazione si arresta non appena viene raggiunto il
potenziale dequilibrio del sodio che ha un valore di circa +30mV . A questo
punto, si inattivano i canali del sodio e iniziano ad aprirsi i canali del potassio, dunque si manifesta una corrente del potassio che assieme allazione
della pompa sodio-potassio, ripristina il valore di riposo del potenziale di
membrana. Mentre i canali del sodio si attivano immediatamente allarrivo
dellimpulso, i canali del potassio si attivano con un certo ritardo: per questo
motivo, prendono il nome di canali ritardatari. La propagazione dellimpulso
avviene al momento dellapertura dei canali del sodio: infatti questi ioni, che
entrano nella cellula, si dispongono nelle vicinanze del punto della depolarizzazione, inducendo i canali adiacenti ad aprirsi e scatendando una reazione
a catena. La velocit di propagazione dellimpulso pu raggiungere anche
il valore di 100m/s ed direttamente proporzionale al diametro dellassone. La direzione di propagazione in vivo unica: va dai dendriti ai bottoni
sinaptici dove sono presenti delle speciali molecole chiamate neurotrasmettitori. Si tratta di sostanze contenute allinterno di vescicole addensate nei
bottoni sinaptici. Allarrivo dellonda depolarizzante, le vescicole si fondono
per esocitosi con la membrana pre-sinaptica riversando il proprio contenuto
nello spazio sinaptico. I neurotrasmettitori rilasciati si legano a recettori o
a canali ionici localizzati sulla membrana post-sinaptica e linterazione tra i
neurotrasmettitori e il recettore/canale ionico scatena una risposta eccitatoria o inibitoria nel neurone post-sinaptico, dove ricomincia tutto il processo
appena descritto.
Le caratteristiche peculiari di questo processo sono innanzitutto la necessit che la depolarizzazione raggiunga un livello minimo di soglia, che deve
essere di circa 50mV . Se questo valore non viene raggiunto, la depolarizzazione non pu aver luogo e lo stimolo esterno viene disperso. La risposta
allo stimolo dunque del tipo tutto o nulla il che significa che o lo stimolo
abbastanza forte da generare una reazione oppure passa inosservato. Infine, importante anche questo fatto: dopo la depolarizzazione, la cellula

3.3. LA FISIOLOGIA DEI NEURONI

29

nervosa passa in uno stadio refrattario ovvero incapace di essere investita


immediatamente da un altro stimolo.

3.3.4

Il modello di Hodgkin e Huxley

Gli studi sui neuroni risalgono allinizio del secolo scorso. I fisiologi, in quellepoca, ancora ignoravano quale fosse la natura dello stimolo. Fu dunque
decisiva lipotesi proposta da Bernstein nel 1902 in cui ipotizzava che il potenziale dazione fosse unonda in movimento di una scarica elettrica attraverso
la membrana cellulare dei neuroni. In seguito, nel 1939 i fisiologi Cole e
Curtis, in seguito a numerosi esperimenti effettuati su alcune membrane assoniche, giunsero ad una importante scoperta: lo stimolo doveva essere una
scarica elettrica che aveva come conseguenza un incremento nella conduttanza ionica della membrana neurale. Si dovette attendere la met del secolo
per giungere alla formulazione di un modello matematico che spiegasse il
comportamento dei neuroni. Lo realizzarono i fisiologi Hodgkin e Huxley
che pubblicarono nel 1952 limportante articolo A quantitative description of
membrane currents and its application to conduction, in cui cercarono di dare
una spiegazione matematica ai fenomeni che per lungo tempo avevano registrato in laboratorio, conducendo esperimenti elettrici sugli assoni giganti
dei calamari. Usando delle tecniche biofisiche particolari quali il voltageclamp e il patch-clamp, i due fisiologi arrivarono a questa serie di conclusioni
qualitative:
La corrente pu passare attraverso la membrana o aumentando la capacit di membrana o per il movimento di ioni attraverso le resistenze
in parallelo con la capacit;
La corrente ionica si divide in due componenti principali: una dovuta al
sodio e una dovuta al potassio. C unaltra corrente, chiamata leakage
current (corrente di dispersione) dovuta al cloro e ad altri ioni.
Ogni componente della corrente ionica determinata da una forza
motrice che pu essere convenientemente misurata da una differenza
di potenziale elettrico e da un coefficiente di permeabilit che ha le
dimensioni di una conduttanza.
Linfluenza del potenziale di membrana sulla permeabilit si pu esprimere in questo modo: la depolarizzazione causa un incremento crescente nella conduttanza del sodio e un incremento pi lento ma mantenuto
della conduttanza del potassio. Poi, questi cambiamenti sono graduali
e possono venir invertiti ripolarizzando la membrana.

30

CAPITOLO 3. IL CERVELLO E I NEURONI


Avvengono dei particolari fenomeni, il potenziale dazione e la refrattariet per un breve periodo di tempo.

Collezionarono i loro risultati registrati durante gli esperimenti e cercarono di spiegare tutti i vari fenomeni visti mediante delle equazioni matematiche. Innanzitutto diedero una forma alla corrente ionica trasmembrana:
I = CM

dV
+ Ii
dt

dove
la corrente I la densit di corrente di membrana totale (corrente
positiva verso linterno);
la corrente Ii la somma delle correnti dei singoli ioni;
V il cambiamento del potenziale di membrana dal suo valore di riposo
(depolarizzazione negativa);
CM la capacit di membrana per unit di area (assunta costante);
t il tempo.
Ulteriori suddivisioni della corrente di membrana la seguente:
Ii = IN a + IK + Il
con
IN a = gN a (V VN a ),
IK = gK (V VK ),
Il = gl (V Vl ).
In particolare:
gN a la conduttanza di membrana del sodio;
VN a la forza elettromotrice istantanea del sodio;
gK la conduttanza di membrana del potassio;
VK la forza elettromotrice istantanea del potassio;
gl la conduttanza costante di dispersione;

3.3. LA FISIOLOGIA DEI NEURONI

31

Vl la forza elettromotrice istantanea degli altri ioni.


La corrente ionica pu essere riscritta in questo modo:
Ii = gK (V VK ) + gN a (V VN a ) + gL (V VL )
. Per le conduttanze variabili nel tempo degli ioni, i due scienziati proposero
le seguenti parametrizzazioni:
gK = GK n4 (t);
gN a = GN a m3 (t)h(t),
con n(t), m(t) e h(t) funzioni implicite del potenziale di membrana V. Queste,
invece, le equazioni per le impedenze:

dn
dt

(n (V )n)
;
n (V )

dm
dt

(m (V )m)
;
m (V )

dh
dt

(h (V )h)
.
h (V )

Laspetto finale delle equazioni del modello di Hodgkin e Huxley il seguente:


dV
= gN a m3 h(V VN a ) gk n4 (V Vk ) gL (V VL ) + Ia
dt
dV
= m(V )(1 m) m (V )m
dt

dove:
C la capacit della membrana;
Ia limpulso elettrico esterno;
gi sono le conduttanze dei vari ioni;
Vi sono i potenziali di equilibrio.
I valori m ed n sono variabili adimensionali che possono assumere un
valore compreso tra 0 ed 1. dallanalisi di questi valori che si ipotizzata
lesistenza dei canali ionici per il sodio e per il potassio che fino ad allora non
erano ancora conosciuti.
Questo modello tuttavia molto complesso e non possibile trovare una
soluzione in modo analitico. stato studiato con successo grazie a numerose
simulazioni numeriche confrontate con i dati sperimentali. Per la difficolt

32

CAPITOLO 3. IL CERVELLO E I NEURONI

Figura 3.6: Hodgkin e Huxley

nel calcolo delle soluzioni, il modello di Hodgkin e Huxley stato rivisto e


in alcuni casi semplificato, in questi ultimi decenni. Uno dei modelli semplificati pi conosciuti il modello di FitzHugh-Nagumo che risolvibile al
calcolatore in molto molto pi semplice. Ma soprattutto le critiche che vengono mosse al modello di Hodgkin e Huxley che non stato ottenuto a
partire da un modello teorico ma stato costruito dallesito di esperimenti,
quindi su una base empirica, in pi tenendo conto di aspetti macroscopici
e non da modelli che tenessero conto del comportamento microscopico delle
componenti del neurone. Inoltre questo modello senza dubbio una semplificazione della realt dal momento che non vengono tenuti in considerazione
gli effetti della depolarizzazione anche del soma e dei dendriti del neurone e
del channel-noise, ovvero linfluenza di altri canali. Tuttavia, a distanza di
60 anni dalla loro pubblicazione, le equazioni originali di Hodgkin e Huxley
continuano ad essere un punto di riferimento per la neurofisiologia perch
non solo forniscono un buon modello per la comprensione della generazione
della scarica nellassone dei neuroni, ma incorporano anche le caratteristiche
importanti delleccitabilit neuronale, lattivazione e linattivazione delle correnti voltage-dependent che si verificano a diverse scale del tempo. La loro
importanza sta nel fatto che catturano in modo compatto e matematico un
sistema fisico che manifesta delle propriet altamente non lineari. Hodgkin
e Huxley furono insigniti del premio Nobel per la Medicina e Fisiologia nel
1963 condividendolo con laustraliano Eccles per le loro scoperte sui meccanismi ionici coinvolti nella eccitazione e nellinibizione delle porzioni centrali
e periferiche delle membrane delle cellule nervose.

3.4. LA DUALIT DELLORGANIZZAZIONE CEREBRALE

3.4

33

La dualit dellorganizzazione cerebrale

La controversia di vecchia data tra localizzazionisti e distribuzionisti descritta


nel capitolo precedente, rispecchia due propriet contrastanti che coesistono
nei cervelli dei vertebrati di ordine superiore. Stiamo parlando della segregazione funzionale e dellintegrazione. La comunit scientifica unanime nel
riconoscere che il cervello segregato funzionalmente a pi livelli. Si sa che
nella corteccia i neuroni sono organizzati in gruppi neurali locali che condividono input e output e sono connessi tra di loro e in modo diretto o indiretto
a specifici sensori afferenti. Il caso della percezione visiva sicuramente lesempio pi adatto per comprendere la segregazione funzionale del cervello.
La visione la capacit degli esseri viventi di cogliere le radiazioni luminose
provenienti dallesterno. Per riuscire a cogliere questo tipo di informazioni,
i vertebrati sono dotati di apparati visivi molto articolati che hanno il compito di ricevere e tradurre le onde luminose e codificarle in impulsi nervosi
da inviare al cervello. Il primo organo che entra in gioco locchio, attraverso il quale passano le radiazioni luminose mentre il cristallino, piccola lente
biconvessa trasparente, ha la funzione di focalizzare limmagine sulla retina. Questultima una estensione del sistema nervoso: una parete molto
vascolarizzata che risiede nella parte posteriore dellocchio. formata da
uno strato di speciali neuroni, i fotorecettori, che sono dei veri e propri recettori di fotoni, e da altri neuroni che formano altri due sottili strati tra
i fotorecettori e lumor vitreo. Esistono due classi di fotorecettori: i coni,
responsabili della visione in condizione di luce brillante, che si suddividono
a loro volta in tre classi: i coni sensibili alla luce rossa, alla luce verde e a
quella blu; laltra classe rappresentata dai bastoncelli, insensibili ai colori,
implicati nella visione in condizioni di bassa luminosit. I fotorecettori sono
responsabili della trasduzione delle onde luminose in impulsi elettrici. Lo
strato neuronale intermedio che ricopre questi fotorecettori formato dalle
cellule orizzontali e dalle cellule bipolari, che rispettivamente trasmettono
orizzontalmente i segnali ricevuti dai fotorecettori e inviano i segnali alle cellule ganglionari. Lo strato pi esterno costituito dalle cellule amacrine e
ganglionari, la cui funzione quella di convogliare i segnali provenienti dagli
strati precedenti nel nervo ottico. Gli impulsi elettrici vengono infine inviati ad una piccola parte del cervello, chiamata corteccia visiva, che si trova
nella parte posteriore dellencefalo. La descrizione della struttura e del comportamento dellapparato visivo ci convince del fatto che uno dei principi
fondamentali dellorganizzazione cerebrale la segregazione funzionale. Non
solo ci sono aree cerebrali diverse specializzate a svolgere compiti diversi, ma
anche allinterno di ciascuna area ci sono gruppi neuronali che si specializzano
in particolari sottomodalit, ad esempio la sensibilit a particolari lunghezze

34

CAPITOLO 3. IL CERVELLO E I NEURONI

donda. La segregazione funzionale ormai un dogma della neurofisiologia


che viene quotidianamente confermata dalle analisi cliniche effettuate dai
mezzi di diagnosi e analisi del cervello, soprattutto la risonanza magnetica funzionale (RMF), un importante metodica in grado di visualizzare la
risposta emodinamica (variazioni del flusso e dellossigenazione sanguigna)
correlata allattivit neuronale del cervello o del midollo spinale. Quando
le cellule nervose sono attive, consumano lossigeno trasportato dallemoglobina. Leffetto di questo consumo un aumento del flusso sanguigno nelle
regioni ove si verifica una maggiore attivit. Misurando i cambiamenti nel
flusso ematico locale legati allaumento di attivit cellulare (neuronale),
possibile, pertanto, mappare quelle aree cerebrali che si attivano durante lo
svolgimento della specifica funzione.
nota ai pi la differenza funzionale tra lemisfero destro, responsabile
principalmente dei fenomeni intuitivi, artistici e meditativi, e lemisfero sinistro, specializzato pi che altro nellelaborazione razionale. Tuttavia, la
localizzazione cerebrale va oltre alla distinzione tra gli emisferi. Basti pensare ai pazienti vittime di traumi cerebrali, che perdono la funzionalit di
alcune parti limitate del cervello o del corpo. A seguito di traumi cerebrali
gravi, non vero che una persona perda tutte le sue funzioni cerebrali: molto spesso, perde solo le funzioni corrispondenti allarea colpita. Lesempio
pi eclatante quello che risale al 1848 e che riguarda loperaio statunitense
Phineas Gage, noto per essere stato coinvolto in un drammatico incidente sul
lavoro. A seguito di unaccidentale esplosione della polvere da sparo che stava
pigiando, lasta di metallo che stava usando per loperazione schizz in aria
trapassandogli il cranio, causandogli fratture del cranio e lesioni estese ai lobi
frontali del cervello. Non solo sopravvisse allincidente ma ben presto riprese
a parlare e a camminare, solo la sua personalit sub radicali trasformazioni.
A dispetto dellimponente evidenza a favore della specializzazione locale,
altrettanto evidente che lattivit cerebrale integrata a molti livelli diversi e riguarda sia singoli neuroni che aree cerebrali diverse. Lintegrazione
evidente nei fenomeni che riguardano la percezione ed il comportamento.
Evidenza clinica dellintegrazione sta nellanalisi delle sindromi da disconnessione. Una di queste quella dei pazienti "split-brain" ovvero quelli
sottoposti al sezionamento del corpo calloso. Questo tipo di intervento stato proposto per la prima volta negli anni Settanta con lo scopo di ridurre gli
attacchi epilettici, con lo scopo di limitarli ad uno solo degli emisferi dellencefalo. Infatti, come detto in precedenza, il corpo calloso il collegamento
principale tra i due emisferi dellencefalo. Lanalisi del comportamento dei
pazienti dopo loperazione ha messo in evidenza due fatti molto particolari:
gli attacchi epilettici scomparivano ma sembrava che nello stesso corpo ci
fossero due persone, o filosoficamente parlando, due "io". Dopo loperazione,

3.4. LA DUALIT DELLORGANIZZAZIONE CEREBRALE

35

infatti, alcuni pazienti dal cervello diviso non subivano cambiamenti nella
personalit o nel carattere, cos come non perdevano alcuna funzionalit cerebrale per sembrava che i due emisferi del cervello fossero indipendenti.
Se una persona normale a cui si benda un occhio, riesce allo stesso tempo a
pronunciare il nome di un oggetto che vede e ad afferrarlo, azioni banali, se
vogliamo, un paziente dal cervello diviso non riesce a fare le due cose contemporaneamente. A seconda dellocchio libero, dunque dellemisfero cerebrale
attivato, riesce a svolgere solo determinate funzioni, magari riesce ad afferrare loggetto non riconoscendolo oppure riesce a ricordare il suo nome ma non
riesce ad afferrarlo. Questo esperimento la prova che il cervello riesce in
qualche modo a integrare tutte le attivit e a svolgerle e a restituire ununica
risposta. Questo fatto allora ha convinto i neurologi che lintegrazione funzionale del cervello sia un altro principio alla base della neurologia, nonostante
sia per molti aspetti contrario al principio della segregazione. Altre evidenze
cliniche sullintegrazione si hanno quando dei pazienti sottoposti a rimozione
di alcune parti del cervello, non perdono alcuna funzionalit, come se queste
funzioni venissero rimpiazzate da altre aree cerebrali.
Unaltra prova che avvalora la tesi sullintegrazione la seguente. Supponiamo che ci vengano mostrati due oggetti di forma e colori diversi, come
un quadrato blu e un cerchio giallo.

Figura 3.7: Binding Problem


Il nostro cervello non solo distingue i due oggetti per forme e colori ma
addirittura riesce a fondere in modo indissolubile le due caratteristiche che

36

CAPITOLO 3. IL CERVELLO E I NEURONI

contraddistinguono loggetto: dopo losservazione, il colore blu e la forma


quadrata o il colore giallo e la forma tonda sono addirittura concetti equivalenti. Questo semplice esperimento conosciuto presso il mondo della
neurofisiologia con il nome di binding problem, ovvero al problema di come sia possibile integrare lattivit di gruppi neurali diversi, nellassunzione
che la loro attivit corrisponda ad aspetti diversi della nostra esperienza cosciente. Se ci pensiamo bene, il binding problem un problema che ha due
punti di vista: da una parte ci porta alla domanda: "come riesce il cervello
a segregare elementi da complessi gruppi di dati?" e dallaltro, "come viene
creata lunit della percezione della coscienza dalle diverse attivit del sistema nervoso centrale?", dunque nel binding problem contenuta la dualit
che caratterizza il cervello. Secondo alcune teorie, lintegrazione e il binding
problem si spiegherebbero tenendo conto del grandissimo numero di connessioni sinaptiche e neurali e dal modo in cui sono organizzate. Infatti, la
maggior parte dei collegamenti sono reciproci e poi sono tali da collegare
in pochi passi neuroni che si trovano in aree cerebrali anche molto lontane.
Queste caratteristiche sono alla base della teoria del rientro, un processo
ricorsivo di invio dei segnali tra gruppi neurali attraverso percorsi paralleli.
Secondo le teorie attuali, il rientro spiegherebbe lequilibrio che sussiste tra
le due caratteristiche del cervello e spiegherebbe anche il binding problem.
La sincronizzazione, in risposta agli stimoli, di aree lontane dalla corteccia
di animali alla base della percezione, inteso come processo unitario ed immediato. un processo che consiste nellattivazione simultanea di un gran
numero di nodi tutti connessi tra di loro.

Capitolo 4
Analisi dei sistemi neurali
4.1

Introduzione

La svolta nelle neuroscienze avvenne nellultimo ventennio del secolo scorso quando si decise di abbandonare il metodo riduzionista e abbracciare la
teoria dei sistemi complessi per comprendere il funzionamento del cervello.
Si era notato che lo studio del singolo neurone o di singole aree cerebrali
non bastava a comprendere lenorme complessit del cervello perch la teoria
del neurone ancora non spiegava il fenomeno del binding problem, ad esempio, o lunificazione della risposta nella percezione o nel comportamento. Si
doveva inquadrare la situazione in modo diverso, ampliando limmagine e
soprattutto non cercando pi di cosiderare le caratteristiche elettrofisiche dei
neuroni. Si doveva considerare il cervello come una rete costituita da tanti
nodi, i neuroni o gruppi neurali o addirittura aree cerebrali, connessi tra di
loro in modo da potersi scambiare segnali. Segnali non pi di natura elettrica o elettrofisica, perch sono troppi: il segnale adesso un concetto pi
astratto, si tratta dellinformazione. Dora in avanti, la corteccia cerebrale
che studieremo sar un grafo su cui scorre dellinformazione e su cui avverranno dei particolari processi dinamici, che possono essere lelaborazione di
un pensiero, la reazione ad un impulso esterno o un esame di coscienza.

4.2

Complessit Neurale

Come gi discusso nellultimo paragrafo del capitolo precedente, nellorganizzazione cerebrale dei vertebrati di ordine superiore, coesistono due aspetti
tanto evidenti quanto contrastanti: la segregazione funzionale e lintegrazione. Da un punto di vista statistico, la segregazione funzionale una misura
dellindipendenza statistica relativa di piccoli sottoinsiemi del sistema neurale
37

38

CAPITOLO 4. ANALISI DEI SISTEMI NEURALI

X mentre lintegrazione funzionale una misura delle deviazioni significative


dallindipendenza di sottoinsiemi molto grandi dello stesso sistema. In altre
parole, gruppi neurali differenti sono statisticamente segregati se le loro attivit tendono ad essere statisticamente indipendenti quando questi elementi
sono presi in considerazione pochi alla volta. Viceversa, i gruppi neurali sono
funzionalmente integrati se mostrano un alto grado di dipendenza statistica
quando vengono considerati molti alla volta. stata introdotta la complessit neurale, CN (X) per misurare lazione simultanea delle due propriet in
un sistema neurale dato che secoli di dispute e di analisi sul cervello hanno
convinto tutti che alla base della grandissima capacit di elaborazione del
cervello sta nella coesistenza di queste due caratteristiche. Lintroduzione
della complessit neurale avvenuta nel 1994 nellarticolo Una misura per la
complessit neurale: collegamento tra segregazione funzionale ed integrazione
nel sistema nervoso scritto dai neuroscienziati Gerald Edelman(1929), Premio Nobel per la Medicina nel 1973 per degli studi sul sistema immunitario,
Olaf Sporns(1963), allievo di Edelman e professore di Psicologia e Scienze
Neurologiche allinstituto di Neuroscienze in California, e il trentino Giulio
Tononi(1962), psichiatra e neuroscienziato, professore di scienze cognitive
e studioso di medicina del sonno presso lUniversit del Wisconsin-Madison.
Questa grandezza mette in luce un risultato sorprendente che far sorridere
se si pensa ai lunghi anni di dispute tra i localizzazionisti e i distribuzionisti:
la complessit neurale massima quando il sistema mostra allo stesso tempo
indipendenza per piccoli sosttoinsiemi e dipendenza crescente per sottoinsiemi di dimensioni crescenti, mentre bassa quando il sistema o totalmente
indipendente (segregato) o totalmente dipendente (integrato). Questa particolare propriet della complessit emerger in modo evidente analizzando la
sua relazione con la mutua informazione.
Pi formalmente, consideriamo un sistema neurale X isolato composto
da n componenti elementari che chiamaremo gruppi neurali, e supponiamo
che la sua attivit sia descritta da un processo stocastico stazionario multidimensionale. Per esprimere la deviazione dallindipendenza tra le componenti
del sistema X, si ricorre allintegrazione, I(X). Lintegrazione definita
come la differenza tra la somma delle entropie di tutte le singole componenti xi , considerate indipendentemente, e lentropia di X considerato come un
tuttuno:
n
X
I(X) =
H(xi ) H(X)
(4.1)
i=1

Consideriamo un sottoinsieme di X composto da k elementi e lo indichiamo con Xjk dove lindice j sta ad indicare che stiamo scegliendo uno degli

4.2. COMPLESSIT NEURALE

39


n
sottoinsiemi di X composti da k elementi; consideriamo, inoltre, il
k
complementare: X Xjk composto da nk elementi. La mutua informazione
M I tra Xjk e X Xjk :
M I(Xjk ; X Xjk ) = H(Xjk ) + H(X Xjk ) H(X),

(4.2)

dove H(Xjk ) e H(X Xjk ) sono rispettivamente le entropie di Xjk e X Xjk ,


considerate indipendentemente, e H(X) lentropia del sistema considerato
come un tuttuno.
Componendo le equazioni (4.1) e (4.2), si ottiene la seguente importante
relazione che lega lespressione dellintegrazione dellinsieme X con la mutua
informazione di due suoi sottoinsiemi:
I(X) = I(Xjk ) + I(X Xjk ) + M I(Xjk ; X Xjk ).

(4.3)

Lo si dimostra facilmente. Le integrazioni del sottosistema di k elementi


e del suo complementare sono:
I(Xjk )

k
X

H(Xji ) H(Xjk );

(4.4)

i=1

I(X Xjk ) =

k
X

H(X Xji ) H(X Xjk )

(4.5)

i=k

Sommo i secondi membri dei termini precedenti:


I(Xjk )+I(X Xjk )

k
X

H(Xji )H(Xjk )+

i=1

k
X

H(X Xji )H(X Xjk )

i=1

e aggiungo e tolgo il termine H(X) al secondo membro:

k
X

H(Xji ) H(Xik ) +

i=1

con

Pk

i=1

k
X

H(X Xji ) H(X Xjk ) + H(X) H(X)

i=1

H(Xji )H(X) = I(X). Portando I(X) a primo membro, si ottiene:

I(Xjk ) + I(X

Xik ) I(X)

H(Xik ) +

k
X
i=1

H(X Xji ) H(X Xjk )

40

CAPITOLO 4. ANALISI DEI SISTEMI NEURALI

e il secondo membro :
H(Xik ) +

k
X

H(X Xji ) H(X Xjk ) + H(X) = M I(Xjk ; X Xjk )

i=1

quindi, si ottiene:
I(Xjk ) + I(X Xjk ) = I(X) M I(Xjk ; X Xjk )
e, riordinando i termini,
I(X) = I(Xjk ) + I(X Xjk ) + M I(Xjk ; X Xjk ),
come volevasi dimostrare.
Dato che M I 0, I(X) I(Xjk ) + I(X Xjk ), con segno di uguaglianza
in caso di sottoinsiemi indipendenti. Dallequazione 4.3, si vede che I(X)
anche uguale alla somma dei valori della mutua informazione tra parti che
risultano dalla bipartizione ricorsiva di X a partire dalle sue componenti
elementari. In particolare, eliminando un elemento alla volta si ottiene:
I(X) =

n1
X

M I({xi }; {xi+1,...,n }).

(4.6)

1=1

Consideriamo dei sottoinsiemi composti da k componenti su n, 1 k n.


Denoteremo con il simbolo < I(Xjk ) > lintegrazione media per i sottoinsiemi
di dimensione k, dove lindice j indica che la media presa su tutte le
 
n
= n!/(k!(n k)!)
k
combinazioni di k elementi su n. Da osservare che < I(Xjn ) >= I(X) mentre
< I(Xj1 ) >= 0. Lequazione 4.3, inoltre, garantisce che < I(Xjk+1 ) ><
I(Xjk ) >, il che significa che < I(Xjk ) > cresce monotonicamente con il
crescere di k. Si definisce Complessit Neurale del sistema X la differenza
tra i valori dellintegrazione media di < I(Xjk ) > calcolata su Xjk attesa da
un incremento lineare per dimensione k crescente dei sottoinsiemi ed i valori
discreti attuali osservati:
n
X
k
CN (X) =
[( )I(X) < I(Xjk ) >].
n
k=1

(4.7)

Come per lintegrazione I(X), anche CN (X) 0. Si pu notare che la


complessit alta quando lintegrazione globale del sistema alta e allo

4.2. COMPLESSIT NEURALE

41

stesso tempo lintegrazione media per piccoli sottoinsiemi pi bassa di quello


che ci aspetteremmo da un incremento lineare su dimensioni crescenti dei
sottoinsiemi.
Per la complessit, valgono due importanti relazioni.
La prima ci permette di esprimere la complessit in termini di entropie:
CN (X) =

n
X

[< H(Xjk ) > (k/n)H(X)].

(4.8)

k=1

Dimostrazione della relazione 4.8:


Per definizione:
n
n
X
k X
CN (X) =
I(Xi ) I(X)]
{ [
n i=1
k=1

Allora:
n
X
k
CN (X) =
{ [I(X) < I(Xjk ) >] =
n
k=1
n
X
k
k
k
[ I(Xjk ) + I(X Xjk ) + M I(X; Xjk ) < I(Xjk ) >] =
n
n
n
k=1
k
nk
kX
nk X
k
k
k
=
H(Hji ) H(Xj ) +
H(X Xjki )+
n i=1
n
n i=1

k
k
k
k
H(X Xjk ) + H(Xjk ) + H(X Xjk ) H(X) < I(Xjk ) >=
n
n
n
n
n
k
kX
kX
k
nk X
=
H(Xi ) H(X) < I(Xjk ) > +
H(Xjk ) +
H(X Xjk ) =
n i=1
n
n i=1
n
n

k
kX
=
H(Xi ) H(X) < I(Xjk ) >=
n i=1
n
k
= H(X) < H(Xjk ) >
n
e, dato che
n

< I(Xjk ) >=<

kX
H(Xi ) > < H(Xjk ) >
n i=1

42

CAPITOLO 4. ANALISI DEI SISTEMI NEURALI

allora
<

n
X

H(Xik )

k=1

n
k X
>= (
H(Xi ))
n k=1

Perci:
k
n
n
X
k
k X
k
k X
H(Xi ) H(X)) (
H(Xi )) + H(Xi )]
[ (
n i=1
n
n k=1
n
k=1

e quindi
n
X

k
[< H(Xjk ) > H(X)].
n
k=1

CN (X) =

2
La seconda relazione ci permette, invece, di esprimere la complessit in
termini di mutua informazione:
n/2
X

CN (X) =

< M I(Xjk ; X Xjk ) > .

k=1

Dimostrazione della relazione 4.2:

CN (X) =

2CN (X) =

n
X

k
[< H(Xjk ) > ( )H(X)]
n
k=1

n
X

k
k
nk
[< H(Xjk ) > ( )H(X)] H(X)
H(X)
n
n
k
k=1

n
X
=
[< H(Xjk ) + H(Xjk ; X Xjk ) >] H(X)
k=1

n
X

< M I(Xjk , X Xjk ) >= 2

k=1

2
X

< M I(Xjk , X Xjk ) >

k=1

da cui

CN (X) =

2
X

k=1

< M I(Xjk ; X Xjk ) >,

4.3. UN APPROCCIO TOPOLOGICO ALLA COMPLESSIT NEURALE43


2
In particolare, questultima relazione mostra come la complessit neurale
sia uguale alla somma delle mutue informazioni calcolate su tutte le possibili
per le bipartizioni del sistema per k = 1, ..., n/2. La complessit CN (X) alta
quando, in media, la mutua informazione tra ogni sottoinsieme dellinsieme
e il suo complementare alta. Inoltre:
La mutua informazione media tra le singole componenti e il resto del
sistema deve essere alta e ci significa che ci sono numerose e forti
correlazioni nel sistema (quindi il sistema deve essere integrato).
La mutua informazione media deve essere pi alta per sottoinsiemi pi
grandi, indicando che queste correlazioni devono essere eterogenee. Ci
significa che se aggiungiamo pi unit a MI, allora le unit individuali
devono avere delle funzioni diverse e specializzate.
Da notare che ha senso considerare solo sistemi individuali: in questo modo,
nessuna bipartizione produce due sottoinsiemi statisticamente indipendenti:
M I(Xjk ; X Xjk ) 6= 0 j, k N.

4.3

Un approccio topologico alla complessit


neurale

Unattivit su una rete neurale si pu pensare come ad un processo stocastico

che avviene su un grafo, costituito da n vertici e da m connessioni; con A


indichiamo la sua matrice di adiacenza i cui elementi, aij , possono assumere
solo due valori:

1 se esiste una connessione da i a j
aij =
0 altrimenti
sia simmetrica (aij = aji per ogni i, j = 1, ..., n) e che
Supporremo che A
sia sprovvista di auto-connessioni: gli elementi della sua diagonale sono tutti
nulli: aii = 0 per ogni i = 1, ..., n. Ricordiamo che si definisce grado di un
vertice il numero di rami incidenti in esso: lo denoteremo con q.
Supponiamo che sul grafo avvenga un particolare processo stocastico:
ogni nodo i, al tempo t, si trova in un particolare stato Xi (t), componente
i esima del vettore n-dimensionale X(t) che considera i valori di tutti gli
n nodi al tempo t. Levoluzione di X(t) data dalla seguente dinamica:

X(t) + R(t + 1)
X(t + 1) = C
X(0) = R(0)

44

CAPITOLO 4. ANALISI DEI SISTEMI NEURALI

la matrice C
= I + A, con , R ed R un vettore ndove C
dimensionale. Supporremo che Ri (t) sia una variabile aleatoria gaussiana
per ogni i = 1, ..., n:
R(t)=(R1 (t), R2 (t), ...Rn (t))T : vettore n-dimensionale le cui componenti sono tutte variabili aleatorie gaussiane;
Ri (t) = 0; la barra sta ad indicare che stiamo considerando la media
sullinsieme;
Ri (t)Rj (t0 ) = ij (t t0 );
le componenti Ri (t) sono scelte come variabili casuali gaussiane standard, quindi di media = 0 e 2 = 1: Ri (t) N (0, 1);
le componenti Ri (t) sono a due a due indipendenti: Ri (t) Rj (s),
t 6= s, i, j N ;
Ri (t) Rj (t), i 6= j.

La dinamica dellintero sistema gaussiana: X(t+1) = CX(t)+R(t+1).


Per rendercene conto, consideriamo levoluzione di un sistema composto da
un solo neurone (n = 1):
X(0) = R(0);
X(1) = CX(0) + R(1) = CR(0) + R(1)
e, dato che combinazioni lineari di variabili aleatorie gaussiane ancora una
variabile aleatoria gaussiana, il processo gaussiano. Questo risultato si
estende anche al caso di n neuroni, quindi a processi gaussiani multidimensionali.
In generale, levoluzione assume la seguente forma:
X(t) =

t
X

k R(t k).
C

k=0

Se X una variabile aleatoria gaussiana n-dimensionale e sono dati un


vettore a Rn e una matrice Q di dimensioni n n allora anche Y = QX + a
una variabile aleatoria gaussiana:
X = N (, ) allora

Y = N (Q + a, QQT ).

4.3. UN APPROCCIO TOPOLOGICO ALLA COMPLESSIT NEURALE45


Riprendiamo lesempio n = 1 per semplicit di calcoli. Dato che R(t)
N (0, 2 ) allora X(t) N (0, t2 ) con varianza
t2

n
X
n R(n k)]2 =
= E[X(t)] = E[
C
2

k=0
n
X
2n 2 ] ove (R(n k))2 = 2
= E[
C
k=0

quindi
n+1

t2

2)
1 (C
=
2
1C

2.

essendo una serie geometrica.


Perci si ha che mandando il tempo t , X(t) converge in legge a una
Gaussiana con matrice di covarianza T : partiamo dal calcolare la matrice di
covarianza al tempo t:
t2 ij = E[Xi (t)Xj (t)]
t
t
X
X
k R(t k))T ]
k R(t k))(
C
C
= E[(
k=0
t
X

= E[(

k=0
t
X

k R(t k))(
C

k=0

j R(t j))T ]
C

j=0

con il cambiamento di indice nella seconda sommatoria:


= E[

n
X

k R(t k))(R(t j)T (C


j )T ]
(C

k,j=0

e dato che le componenti Ri sono a due a due indipendenti, il valor medio


della somma uguale alla somma dei valor medi:
t2 ij =

t
X

k E[R(t k)R(t j)T ](C


j )T E[R(t k)R(t j)T ]
C

k,3j

per lindipendenza delle componenti


=

t
X
k,j

k I(C
k) =
C

t
X
k=0

C
T )k .
(C

46

CAPITOLO 4. ANALISI DEI SISTEMI NEURALI

Ci interessa il comportamento per t che tende ad infinito:


t2

t
X

C
T )k = (1 C
C
T )1 (1 (C
C
T )t+1 ).
(C

k=0

Osservo un fatto molto importante che riguarda il comportamento delle


serie di matrici:
n1
X

Tk = (1 T)1 (1 Tn )

(1 T)

k=0

n1
X

Tk = 1 Tn

k=0

quindi
t2

t
X

C
T )k = (1 C
C
T )1 (1 (C
C
T )t+1 ).
(C

k=0

Il problema adesso riguarda lo studio del comportamento asintotico di


(CCT )t . Si vede che questo dipende dal comportamento degli autovalori.
Possiamo allora studiare
A simmetrica anche C simmetrica
P t.c. PT CP = D = diag{1 , ..., n } C = PDPT
Dato che
T = CCT allora T = CPPT CT = P(PT CP)(PT CT P)PT = PDDT PT
con DDT matrice diagonale: diag(21 , ..., 2n ).
Allora T = PDDT PT con T unitariamente equivalente alla matrice
DDT = diag(21 , ..., 2n ).
Condizione necessaria per la convergenza che:
max 2i < 1.

i=1,..,n

e quindi che |i | < 1. Questo mi porta a formulare una condizione sugli


autovalori {j } di A del tipo
| + j | < 1.
Siccome X(t) un processo gaussiano multidimensionale, la sua statistica
completamente descritta dal suo momento del secondo ordine:
t (t)C
b
b t + bI
X(t + 1)Xt (t + 1) = CX(t)X

4.3. UN APPROCCIO TOPOLOGICO ALLA COMPLESSIT NEURALE47


X(t + 1)Xt (t + 1) la matrice delle varianze e covarianze n n il cui
determinante verr indicato con questa scrittura: |cov(X)|. Il valor medio di
X(t) sempre nullo dato che una somma di valori medi nulli ad ogni passo
temporale.
Definito il processo ed il grafo, siamo interessati a calcolare la complessit del processo suddetto. Per farlo, abbiamo bisogno di determinare
innanzitutto lentropia del processo, H(X).
Dato che il processo X(t) gaussiano, lentropia di Shannon dipende solo
da |cov(X)|:
1
H(X) = ln[(2e)n |cov(X)|].
2
Sotto opportune condizioni stazionarie, il generico elemento della matrice di
covarianze cov(X) espresso nella base di autovettori x0i :
x0i x0l =

il
1 ni nl

(4.9)

dove linsieme dei valori i rappresenta lo spettro degli autovalori della ma


trice di adiacenza A:
X
X
Aij x0j =
j x0j ij .
(4.10)
j

Facendo riferimento allequazione 4.17, il determinante della matrice delle


covarianze :
Y 1
.
(4.11)
|cov(X)| =
2i
i 1 n2
Questultima espressione sar determinante per la nostra analisi. La particolarit che la matrice delle covarianze di X e dunque lintera dinamica
e non
dipende esclusivamente dallo spettro degli autovalori della matrice A
dalla sua evoluzione temporale.
Per poter calcolare la complessit del processo guassiano, dobbiamo considerare tutti i sottografi dellintero grafo costituiti da k nodi, tutti gli Xk .
La complessit :
C(X) =

X
k
[< H(Xk ) > H(X)]
n
k

dove il simbolo < ... > sta a significare che si prende la media su tutti i
sottografi di rango k. La sommatoria varia dal rango pi piccolo per un
sottografo, 2, al pi grande n 1. Se k = 1 allora lespressione per la
covarianza sarebbe banale perch la matrice delle varianze e delle covarianze
di vertici disconnessi dipendente semplicemente dalla varianza di R(t),

48

CAPITOLO 4. ANALISI DEI SISTEMI NEURALI

ovvero |Cov(X|) = n . Il termine per k = n, invece, sempre nullo. Da qui


in avanti, per semplicit porremo = 1.
Lespressione dellentropia (vedere appendice A):
H(X) =

1 X
1
1
ln[(2e)n |cov(X)|] =
ln[(2e)
]
2
2
2 i
1 i2
n

(4.12)
Aggiustiamo la relazione precedente, portando fuori dal simbolo di sommatoria la quantit ln(2e) che non dipende da n, sfruttando la propriet del
logaritmo del prodotto:
X
1
1
)
H(X) = n ln(2e)
ln(
2
2
1 i2
i
n

= ln(2e) 2

ln(

i
n

= ln(2e) 2 [

X
i

ln(1

2i
n2

2i
)].
n2

Notiamo che nel secondo fattore, a denominatore, compare la sommatoria per


i = 1, ....n. Se 2max /n2  1 allora possiamo trasformare in serie di Taylor il
logaritmo naturale, ricordando lespansione in serie del logaritmo naturale:
ln(1 + x) = x
Perci:
ln(

1
1

x2 x3
xp
+
+ ... + (1)p1 + O(xp ).
2
3
p

)'
2
i

X 2
i

n2

i
n2

X 4
X 6
i
i
+
O(
)
4
6
2n
3n
i
i

e quindi
X 6
n
1 X 2i X 4i
i
H(X) ' ln(2e) 2 + (
+
)
+
O(
)
4
6
2 i n2
2n
6n
i
i

(4.13)

P
Nellespressione ottenuta, intervengono i valori Dk = ni=1 (i )k : sono il
numero di cammini orientati detti k-cicli del grafo iniziale, considerato non
orientato, che tornano al loro stato iniziale dopo k passi. In particolare,
n
X
X
Dk =
(i )k =
ai1 ,i2 ai2 ,i3 ...aik ,i1
i=1

i1 ,i2 ,...ik

(4.14)

4.3. UN APPROCCIO TOPOLOGICO ALLA COMPLESSIT NEURALE49


ove aik ,ik+1 il generico elemento non nullo della matrice di adiacenza A.
Usando queste notazioni, lentropia H(X) espressa in 4.13 assume la
seguente forma:
X D6
n
1 X D2 X D4
H(X) ' ln(2e) 2 + (
+
)
+
O(
)
2 i n2
2n4
6n6
i
i

(4.15)

D2 il numero di tutti i sotto-cammini del grafo che partendo da un nodo


i raggiunge un altro nodo j per poi ritornare in i. Sono i cosidetti due-cicli.
D4 il numero dei 4-cicli, invece, quei sotto-cammini orientati che partendo
da un certo nodo, gli fanno ritorno dopo 4 passi. Dal momento che richiesto
che il termine aik ,ik+1 non sia nullo, aik 6= aik+1 : questo significa che non si
possono considerare sottografi degeneri che sono o che contengono cappi.
La complessit a questo punto :
n1

n1

1 X < D2 (k) > k D2 1 X < D4 (k) > k D4


[

]+
[

]+R() (4.16)
C(X)
=
2 k=2
k2
n n2
4 k=2
k4
n n4
ove

n1 X
X
< D6 (k) > k
k D6
)
]
R() = O[ (
6
6k
n
n 6n6
i
k=2

(4.17)

Quello che notiamo il legame della complessit con il numero di 2-cicli


e 4-cicli del grafo, dunque con la sua organizzazione in sottografi. Non interviene affatto levoluzione temporale del processo. La complessit, ovvero
la capacit da parte del cervello di rispondere a stimoli molto articolati,
dovuta all organizzazione topologica delle reti neurali. Per ottenere delle informazioni pi accurate, dovremo calcolare il numero di questi sottografi che
dipender non solo dal numero di vertici e rami del grafo, ma evidentemente
anche dalla distribuzione dei gradi su tutto il grafo e dei rami nei vari sottografi. Anticipiamo il valore assunto dalla complessit dopo aver effettuato
tutti i calcoli, che lasciamo ai lettori interessati:

C(X) = C
+
+

ord2

(n, m) +

C1ord4 (m, n,

C2ord4 (m, n,  q 2 )
C4ord4 (m, n) + R()

n1
X

< m(k)2 >)+

k=2
ord4
C3 (m, n, 

Infine, per R() si riprende lequazione 4.17.


I calcoli nel dettaglio:

q )+

50

CAPITOLO 4. ANALISI DEI SISTEMI NEURALI

Calcoliamo innanzitutto il valore di D2 . Tenendo conto che coppie non


connesse del grafo hanno termine aij = 0, D2 il doppio delle connessioni
dellintero grafo, doppio perch dati due vertici i e j, il cammino i j i
distinto dal cammino j i j . Nel caso del grafo completo:
D2 = 2m,
mentre nel caso del sottografo di dimensione k:
D2 (k) = 2m(k)
dove m(k) il numero di tutte le connessioni del sottografo di dimensione k.
Esaminiamo, ora, il termine D4 (k).
Come da definizione, rappresenta il numero di 4-cicli orientati che si possono
contare nel sottografo di dimensione k che, dopo 4 passi, tornano alla loro
origine. Osserviamo che:
X
D4 (k) =
i (k)4 = 4m(k)2
i

dove 4m(k)2 il numero di tutti i circuiti costituiti da 4 rami, casi degeneri


inclusi. Per questo motivo, si deve togliere a 4m(k)2 il numero dei circuiti
costituiti da un numero di nodi inferiore a 4. Per considerare tutti i circuiti
degeneri, cominciamo considerando quelli con solo due nodi distinti:
X
i (k)2 j (k)2
= 4m(k)2
i6=j

In particolare:
X

i (k)2 j (k)2 =

XX
i6=j

i6=j

ail ali ajq aqj 2D2 (k)

lq

dove viene tolto il termine D2 (k) che rappresenta il numero dei circuiti in cui
i e j sono solamente connessi tra di loro. In particolare:
XX
ail ali ajq aqj =
i6=j

lq

X
i6=j;l=j;q=i

+2

X
i6=j6=l

(aij aji )2 +

ail ali ajq aqj + 3

i6=j6=l6=q

ail ail ajj ajj +

X
i6=j;l=i;q=j6=l

ail ali ajl alj +

i6=j6=l

aii aii ajj ajj + 2

X
i6=j;l=q=j

aij aji ajj ajj

4.3. UN APPROCCIO TOPOLOGICO ALLA COMPLESSIT NEURALE51


Con questa espressione, abbiamo elencato tutti i possibili casi degeneri. Si
pu osservare che il secondo membro si pu alleggerire togliendo gli ultimi
tre addendi: infatti valgono tutti e tre zero dal momento che contengono
elementi diagonali, come si pu capire osservando le figure che seguono.
Questo il particolare sottografo indicato dal terzultimo termine del
secondo membro:
X
ail ail ajj ajj
i6=j6=l

Figura 4.1: Due nodi distinti ed un cappio


Questo il particolare sottografo indicato dal penultimo termine del
secondo membro:
X
aii aii ajj ajj
i6=j;l=i;q=j6=l

Figura 4.2: Due nodi distinti e due cappi


Infine, questo il particolare sottografo indicato dallultimo termine del
secondo membro:
X
aij aji ajj ajj
i6=j;l=q=j

52

CAPITOLO 4. ANALISI DEI SISTEMI NEURALI

Figura 4.3: Tre nodi coincidenti


Riscrivendo il secondo membro alleggerito degli ultimi tre termini, otteniamo:
XX
X
X
X
ail ali ajq aqj =
(aij aji )2 +
ail ali ajq aqj ++3
ail ali ajl alj
i6=j

lq

i6=j;l=j;q=i

i6=j6=l6=q

i6=j6=l

Il primo termine semplicemente D2 come si pu vedere in figura 4.4; il


numero di questi cammini 2m(k).

Figura 4.4: Due vertici distinti


Occupiamoci degli ultimi due addendi. Prima, per, chiariamo che considerando dei sottografi di ordine k, i loro nodi possono avere un grado diverso.
Per semplicit, supporremo che tutti abbiano lo stesso grado, q.
Ci proponiamo di contare il numero di sottografi rappresentati dal secondo
addendo, rappresentati dalla figura 4.5:
X
ail ali ajq aqj
i6=j6=l6=q

Dobbiamo cercare il numero di coppie disgiunte di rami di un generico


sottografo di dimensione k. Il numero totale di coppie dellintero grafo dato
da questo coefficiente binomiale:


m
.
2

4.3. UN APPROCCIO TOPOLOGICO ALLA COMPLESSIT NEURALE53

Figura 4.5: Quattro nodi distinti ma connessi a due a due


A questo numero, si sottrae il numero di coppie di rami che condividono un
nodo su tutto il grafo:
1
( q 2   q )
2
Infine, si considera la molteplicit, ovvero il numero di sottografi di rango k
contenente ciascuna coppia di rami disgiunti:


n4
.
k4
Il numero di questi grafi :


 


q
n4
m
[

]
2
2
k4
Veniamo al terzo addendo:
X
ail ali ajl alj
i6=j6=l

Questa formula corrisponde ad un grafo composto da tre vertici distinti,


i, j e l, come si pu vedere in figura:

Figura 4.6: Due cicli e tre vertici distinti


Calcoliamo il numero dei sottografi di questo tipo: considero queste
propriet:

54

CAPITOLO 4. ANALISI DEI SISTEMI NEURALI


fissati 3 vertici, i, j e k, il numero di questi sottografi rappresentato
da tutti i modi di prendere k 3 vertici sul totale di n 3 vertici;
scelti questi tre nodi ho 6 sottografi, divisi per due;
devo tener conto del grado di ciascun nodo.

n3
k3

  
q

Il primo coefficiente binomiale il numero di modi di scegliere k nodi


su un totale di n nodi, lasciando fuori i 3 nodi che appartengono alla coppia
considerata. il numero di sottografi di rango k che contiene una particolare
scelta di 3 vertici. Dato che il generico nodo i ha q rami, possiamo contare
q su 2 coppie diverse di rami che condividono lo stesso nodo i. Indichiamo
con P (q) la distribuzione del grado sullintero grafo, il terzo addendo assume
questa forma allora:
X n 3  q 
ail ali ail ajl alj =
P (q) =
k3
2
q
i6=j6=l

 
1 n3
q
( q 2   q )
=
k

3
2
2

XX
k

P 2
P
con  q 2 =
q P (q) e  q =
qP (q). Il simbolo di sommatoria sta
ad indicare che si considerano tutti i sottografi costituiti da k nodi.
Ricapitoliamo, considerando la media su tutti i termini:
< D4 (k) >=<

X
i

i (k)4 >=< 4m(k)2 >

< i (k)2 j (k)2 >=

i6=j

n4
k4
1
2m(k)
=< 4m(k)2 > +   + ( q 2   q )  
2
n
n
k
k


n3


k3
3
m
 
+ ( q 2   q )
2
2
n
k




m
2

n4
k4
 
n
k

4.3. UN APPROCCIO TOPOLOGICO ALLA COMPLESSIT NEURALE55


Considero per finire la media della somma di tutti i sottografi di dimensione k:
X

< D4 (k) >=

< 4m(k) > +

k=n1
X

k=2

n4
n1
X
k4
1
( q 2   q )  
+
2 k=4
n
k



n1 
X
m

2
k=4


n1

3X
+
( q 2   q )
2 k=4

m
2

< 2m(k) >


 
n
k

n3
k3
 
n
k


n4
k4
  +
n
k

P
Da notare che n1
k=2  q  solo una funzione in n ed m dato che
m
 q = n . Calcolata, diventa:
n1
X

 q =

k=2

n1
X
m
k=2

= (n 1 2 + 1)

m
m(n 2)
=
.
n
n

Per il calcolo della complessit, sar necessario calcolare il valore < m(k) >,
cio la media delle connessioni del sottografo di dimensione k su tutti i
sottografi possibili.
k(k 1)
< m(k) >= m
n(n 1)
ovvero il prodotto di tutte le connessioni effettive, del grafo iniziale, per la
media di tutte le possibili connessioni, che sono k(k 1) su un totale di
n(n 1).
Per finire, occupiamoci della complessit.
n1

n1

1 X < D2 (k) > k D2


1 X < D4 (k) > k D4
C(X)
[

]
+
[

] + R()
=
2 k=2
k2
n n2
4 k=2
k4
n n4
=C
+

ord2

(n, m) +

C3ord4 (m, n, 

C1ord4 (m, n,
q ) +

n1
X

< m(k)2 >) + C2ord4 (m, n,  q 2 )

k=2
ord4
C4 (m, n)

+ R()

56

CAPITOLO 4. ANALISI DEI SISTEMI NEURALI


ove la complessit calcolata fino al secondo ordine :
C

ord2

n1
m(n 2) m(n + 1)(n 2) m X 1

(n, m) =
+ 3
n(n 1)
2n3
n k=2 k

e non dipende dalla topologia del grafo, ma solo dal numero di nodi e di
connessioni totali.
I termini ricavati dal calcolo della complessit fino al quarto ordine sono:
P
2
C1ord4 che dipende dal valore n1
k=2 < m(k ) > che rappresenta il momento del secondo ordine del numero di rami calcolato su tutte le
dimensioni k:
C1ord4 (m, n,

n1
X
k=2

n1
X
< m(k)2 >
< m(k ) >) =
k4
k=2
2

C2ord4 dipende dal valore  q 2  che rappresenta il momento del secondo ordine del quadrato dei gradi dei vertici dellintero grafo:
n1

C2ord4 (m, n, 

 q 2  n2 n 3  q 2  X 1 (n 4)!k!
q ) =
+
(
+
4 (k 4)!n!
8
n4
8
k
k=4
2

n1
X
3 (n 3)!k!

)
4 (k 3)!n!
k
k=3

C3ord4 dipende, stavolta, da  q  che il momento del secondo ordine


del grado dei vertici dellintero grafo:
C3ord4 (m, n, 

n1
1 n2 n 3 1 X 3 (n 3)!k!
q ) =
+ (
+
8
n4
8 k=3 k 4 (k 3)!n!

n1
X
1 (n 4)!k!
)
4 (k 4)!n!
k
k=4

C4ord4 lunico termine dello sviluppo della complessit fino al quarto ordine che non dipende dalla particolare architettura del grafo ma

4.4. IL CASO DEL SISTEMA NON ISOLATO

57

dipende esclusivamente da l numero di nodi e rami.


C4ord4 (m, n)

n1
m(n + 1)(n 2) m X
1
1 k1
  3 +
=
+ (
5
4n
2 k=2 n(n 1) n
k
k


n4
1
m1 k4
 
)
4
k4
n
k

Si sono svolti dei calcoli su computer dellentropia e della complessit della


dinamica su un grafo piccolo mondo con n = 10, 15 e 20 nodi, utilizzando
un algoritmo che si pu semplificare in due passi:
1. Si comincia con reticolo composto da n nodi in cui ogni nodo connesso
ai suoi J vicini. Per ottenere una rete sparsa ma connessa per tutti gli
istanti, si pone: n  J  ln n  1 .
2. In modo casuale, si d a ciascun vertice del reticolo una probabilit p
in modo tale che non ci siano auto-connessioni n cappi. Variando p
il passaggio dallordine p = 0 alla completa casualit p = 1 possono
essere facilmente monitorati.
La valutazione numerica per i valori esatti ed appprossimati di C(X) si possono ottenere facilmente in un grafo piccolo mondo: in questo caso, possiamo
studiare diverse disposizioni dei legami che tengono fisso il numero dei nodi
e dei rami. La variazione della complessit dipende sia da < m(k 2 ) > su
tutte le dimensioni k e che  q 2 , come atteso. Dato che lespansione
permessa quando il grado dei nodi medio molto minore di 1 2max /n2  1,
ci attendiamo unaccuratezza maggiore quando la connettivit media bassa
(n  J) e una peggiore approssimazione quando J cresce. Le simulazioni
confermano questo trend per valori crescenti di J e J < n.

4.4

Il caso del sistema non isolato

Lanalisi sulla complessit neurale stata fatta su un sistema isolato e ci


non del tutto sbagliato se pensiamo che la maggior parte dei neuroni delle
cortecce dei mammiferi, i vertebrati pi evoluti, ricevono la maggior parte
dei segnali da altri neuroni piuttosto che da neuroni afferenti sensoriali. Inoltre, come gli esperimenti di Lilly hanno provato, il cervello spontaneamente
attivo: si attiva anche se non riceve segnali dallambiente esterno e il sogno

58

CAPITOLO 4. ANALISI DEI SISTEMI NEURALI

e limmaginazione sono due fenomeni che lo dimostrano inequivocabilmente.


Tuttavia, il cervello un sistema non isolato, anzi evoluto nel tempo grazie
allinterazione con lesterno e linterazione continua con lesterno il fondamento della complessit cerebrale. Infatti, per questo motivo si dovrebbero
crescere i bambini in ambienti altamente stimolanti per diventare pi intelligenti. Allora, se consideriamo un sistema non pi isolato e che riceva segnali
dallesterno, ci dobbiamo aspettare un cambiamento nella complessit neurale del sistema stesso. Assumiamo che il sistema X percepisca uno stimolo i
proveniente da unarea sensoriale S e rappresentiamo la connettivit estrinseca con la matrice CON (S; X) tra il sistema S ed un sottoinsieme delle unit
del sistema X. S e CON (S; X) non sono considerate parti del sistema allora possiamo esprimere la MI tra il sistema e larea sensoriale quando viene
codificato il segnale i esimo come M I(X; Si ). La complessit totale :
CNT (X) = CNI (X) + CNE (X) + CM (X; Si ).
dove CNI (X) la complessit introdotta precedentemente nel sistema isolato
verr chiamata complessit intrinseca; CNE (X) la complessit estrinseca
che si ottiene ponendo CON (X) = 0; CM (X; Si ) si definisce complessit
di Abbinamento tra X e Si che il cambiamento della complessit del
sistema che tiene conto della sua complessit intrinseca e di quella estrinseca.
Pu assumere qualunque valore: nullo, positivo o negativo. Lequazione
precedente si riferisce ad uno stimolo Si . In generale, dato che la struttura
statistica dei segnali possono essre caratterizzati da molti differenti stimoli,
si potrebbe calcolare la complessit di abbinamento media: < CM (X; Si ) >
per un insieme di n stimoli, dove i = 1, ..., n. Segue che:
n

CM (X; Si ) =

2
X

< M I T (Xjk ; X Xjk ) >

k=1

< M I I (Xjk ; X Xjk ) > < M I E (Xjk ; X Xjk ) >


Dato che la mutua informazione su un insieme di tutte le bipartizioni
comprende tutte le correlazioni entro il sistema, CM misura lestensione per
il quale linsieme delle correlazioni intrinseche del sistema sono aumentate
o ridotte, in media, dai segnali sentiti dallambiente. Questa definizione di
CM in termini di cambiamenti in MI entro X precisamente correlata alla
distribuzione di Mi tra X ed Si . Dato che input estrinsici e rumori intrinseci
in X sono in media non correlati, MI tra ogni sottoinsieme Xjk meno lentropia
di Xjk :
M I T (Xjk ; Si ) = H T (Xjk ) H I (Xjk ).

4.5. MISURE STRUTTURALI DELLE RETI

59

Si dimostra che:
CM (X; Si ) =

n/2
X

< M I T (Xjk ; Si ) > + < M I T (Xjk ; Si ) > +

k=1

< M I E (Xjk ; Si ) + M I E (X Xjk ; Si ) >


Estendendo la somma a sottoinsiemi di dimensione k = n, si ottiene:

CM (X; Si ) =

n
X

< M I T (Xjk ; Si ) > < M I E (Xjk ; Si ) >

(4.18)

k=1

CM misura il cambiamento nella MI media tra Si e tutti i sottoinsiemi di


X sommati su tutte le dimensioni dei sottoinsiemi che dovuta alla connettivit del sistema. Dato un valore fissato di MI tra X ed Si , labbinamento
misura quanto bene la MI tra X ed Si distribuita ai sottoinsiemi di unit
di X. La complessit di abbinamento, CM indica, quindi, il cambiamento
della complessit di un sistema neurale quando risponde a segnali provenienti
dallambiente. Mentre CN misura lammontare e leterogeneit della connettivit funzionale intrinseca di un sistema neurale, CM misura quanto bene la
connettivit funzionale si modella o si adatta alla struttura statistica dei suoi
input sensoriali. Se si addestrano le reti al riconoscimento di un insieme di
stimoli, si mostra sperimentalmente che le reti mostrano unalta organizzazione interna (quindi sia integrazione che segregazione) e una specializzazione
rispetto agli stimoli. Mentre CM aumenta, la connettivit funzionale intrinseca diventa progressivamente pi adattata alla struttura statistica dellinput
sensoriale. La nostra analisi inoltre ha indicato come la connettivit funzionale del cervello costituisca un contesto intrinseco che per necessit domina
le sue risposte ad ogni singolo stimolo.

4.5

Misure strutturali delle reti

Per ottenere delle informazioni pi precise sulla connettivit della rete, si fa


ricorso a delle misure strutturali tipiche dei grafi orientati:
l indice di raggruppamento (cluster index) fclust valuta il grado di
quei vertici vicini che condividono la loro connettivit. In altre parole,
provvede ad una misura media dell intimit di una rete.
La probabilit di ciclo (cycle probability) pcyc (p) definita come la
probabiblit che un percorso di lunghezza q 1 possa essere completato

60

CAPITOLO 4. ANALISI DEI SISTEMI NEURALI


in cicli di lunghezza q. Questa misura esprime labbondanza relativa di
cicli di una specifica lunghezza in una rete.
la lunghezza delle connessioni (wiring lenght) lwire .

Gli esperimenti che sono stati fatti su tre tipi di reti hanno confermato
quello che gi emerso sulla relazione tra complessit e topologia. Realizzando mediante uno speciale algoritmo tre tipi speciali di reti, ottimizzate
per massimizzare, rispettivamente lentropia, lintegrazione e la complessit,
lo studio delle loro caratteristiche strutturali indica delle evidenti differenze.
I grafi generati casualmente non mostrano alcuna tendenza al raggruppamento dei vertici, avendo un basso fclust , un alto lwire e poche connessioni
reciproche (pcyc (2)) e cicli corti (pcyc (3) e (pcyc (4)). I grafi selezionati per
essere costituiti da unalta entropia hanno bassofclust perch non mostrano
evidenza di raggruppamento ma i loro vertici sono organizzati cos da massimizzare la loro indipendenza statistica (alto lwire ). I grafi che hanno alta
integrazione mostrano una marcata tendenza a formare un singolo cluster
(fclust alto) circondato da molti figli (anche lwire alto). Infine, i grafi che
hanno unalta complessit sono caratterizzati invece da vari gruppi di vertici
che sono tra loro ampiamente interconnessi, ed hanno perci un alto fclust
ma un basso lwire dato che molte connessioni restano locali: ci significa che
lalta complessit associata ad abbondanti connessioni reciproche e molti
cicli corti, come atteso.
La corteccia visiva di un macaco, che un animale molto intelligente,
caratterizzata da un alto fclust , relativamente basso lwire e una grande abbondanza di connessioni reciproche che favoriscono il rientro e cicli di dimensioni
molto piccole e tutte queste misure danno grandi indicazioni per sostenereche
esistano raggruppamenti anatomici nella corteccia visiva.

4.6

Sincronizzazione, rientro e binding problem

La presenza di numerosi circuiti reciproci e composti da cicli corti il substrato funzionale del fenomeno del rientro. Si tratta di un processo in continuo
sviluppo di invio di segnali ricorsivi tra gruppi neurali che avviene nelle fibre connesse in modo reciproco e parallelo che collega regioni mappate come
quelle presenti nella corteccia cerebrale. In generale, dunque, consiste di
interazioni dinamiche tra popolazioni cellulari su ampie distanze, causando
correlazioni spazio-temporali entro e tra aree corticali. un processo che si
distingue dal feed-back, di cui parleremo nel capitolo dedicato alle reti neurali
artificiali, perch questultimo segue delle istruzioni ben precise e coinvolge
una funzione derrore che viene trasmessa in serie su un singolo percorso. Il

4.7. LINFLUENZA RECIPROCA TRA LE DUE PARTI DI UNA BIPARTIZIONE61


fenomeno del rientro impone che tra le interazioni dei gruppi neurali in competizione, visto che come sappiamo il cervello ridondante, cio composto
da un numero molto elevato di neuroni, vengano favorite quelle sincrone, tra
tutte le aree cerebrali ampiamente distribuite nel cervello. Dunque, la sincronizzazione un altro aspetto chiave per comprendere lattivit del cervello:
si tratta dellattivazione simultanea dei neuroni, che iniziano ad oscillare
con la stessa frequenza, in risposta ad uno stimolo esterno comune o perch dinamicamente collegati da connessioni dirette e, di solito, reciproche.
La sincronizzazione alla base della percezione, intesa come processo unitario ed immediato. Dipende anche dallintegrit dei circuiti reciproci come
stato dimostrato nellanalisi dei cervelli dei pazienti sottoposti alla transezione del corpo calloso. Questo intervento metteva in luce una mancata
sincronizzazione nellattivit delle varie aree cerebrali.
Il rientro e la sincronizzazione sono alla base del gi citato binding problem che la capacit da parte del cervello di unificare pi attivit e risposte
a stimoli esterni. Infatti aree funzionalmente segregate della corteccia riescono a correlare la loro attivit anche in assenza di un programma esecutivo
o di una mappa super partes, che dirige il resto. Il legame dellattivit di
aree di questo tipo essenziale per la percezione, per la distinzione selettiva
di oggetti diversi o particolari eventi.
Limportanza di questi studi sta nel fatto che si potuto capire qual
la possibile origine ed evoluzione della complessit nel sistema nervoso. Si
visto che la complessit esprime la capacit del circuito corticale di supportare la dinamica funzionale che integra speciali elementi. Questa capacit
gli permette di avere un vantaggio adattativo significativo ad un organismo
mentre gli permette stati percettivi, cognitivi e comportamentali simultanei
per dipendere in modalit e sotto-modalit sensoriali multiple. Quello che si
osservato in queste simulazioni che la complessit intrinseca tende ad aumentare se popolazioni di reti vengono obbligate ad essere esposte a stimoli
esterni (matching) o durante la produzione di patterns di output simili da diversi sottoinsiemi del circuito (degenerazione). Il matching e la degenerazione
sono caratteristiche vantaggiose per ladattamento di un organismo.

4.7

Linfluenza reciproca tra le due parti di una


bipartizione

Le analisi finora condotte sul sistema neurale X hanno spesso richiesto la


bipartizione del sistema stesso, senza mai valutare quanto una parte del sistema influenzasse il comportamento dellaltra. LInformazione Effettiva

62

CAPITOLO 4. ANALISI DEI SISTEMI NEURALI

EI definita come:
EI(A B) = M I(AH

max

; B)

misura lentropia delle risposte risultanti in B quando si d massima entropia


ad A, sostituendo i suoi elementi con fonti di rumore indipendenti per rendere
massima lentropia risultante. In questo modo, lentropia che B condivide
con A dovuta ad effetti casuali di A su B. In termini neurali, come se
provassimo tutte le possibili combinazioni delle attivazioni in A, e stabilissimo
quanto differenziato il repertorio di attivazioni che si producono in B. Se
perci le connessioni tra A e B sono forti e specializzate, differenti output
di A produrranno differenti attivazioni in B ed EI(A B) sar alto. Al
contrario, se le connessioni sono tali che differenti output di A producono
scarsi effetti, o gli effetti sono sempre gli stessi, EI(A B) sar basso o nullo.
Occorre notare che lInformazione Effettiva non una misura simmetrica cio
EI(A B) in genere sar diverso da EI(B A). Linformazione effettiva
di una bipartizione la somma delle informazioni effettive nelle due direzioni:
EI(A B) = EI(A B) + EI(B A)
Se esiste una bipartizione del sistema tale che EI(A B) = 0, il sistema non
in grado di integrare alcuna informazione perch come se i due sottoinsiemi
fossero indipendenti. Per misurare quanta informazione pu essere integrata
in un insieme S, dobbiamo cercare la bipartizione [A : B]S per cui EI(A B)
minima. Dato che EI(A B) proporzionale alla massima entropia
possibile in A o B, per essere comparabile tra diverse bipartizioni dobbiamo
normalizzare min EI(A B) per min H max (A), H max (B). La Bipartizione
con Minima Informazione (MIB) di un insieme S perci:

M IB(S) = [A : B]S
EI(A B)
= min A X
min H max (A), H max (B)
Si definisce la capacit di Integrazione dellInformazione (Information Integration) per un insieme S il valore di EI(A B) per la bipartizione
con minima informazione:
(S) = EI(M IB(S))
Se calcoliamo (S) per ogni sottoinsieme S di un sistema X, possiamo
stabilire quali sottoinsiemi sono realmente capaci di integrare informazione
e quanta ne riescono ad integrare. Se un sottoinsieme con (S) > 0 non

4.8. EMERGENZA DELLA COSCIENZA

63

incluso in un sottoinsieme pi ampio con (S) maggiore, lo definiscono


un complesso (complex). Il complesso principale del sistema quello con il
massimo valore di (S). (S) un valore che pu venire stimato per varie
parti del cervello. Il sistema talamo-corticale, ad esempio, caratterizzato
da una rapida ed ottimale integrazione delle informazioni: comprende, infatti, un grande numero di elementi ampiamente distribuiti funzionalmente
specializzati. Analisi anatomiche hanno mostrato che aree specializzate della corteccia mantengono insiemi eterogenei di percorsi afferenti ed efferenti,
presumibilmente cruciali per generare le loro propriet funzionali individuali.
Ma allo stesso tempo, questi elementi sono interconnessi in maniera molto
intricata, sia allinterno che tra aree e queste interconnessioni mostrano una
sovrabbondanza di cicli corti. Tali connessioni modellano le interazioni allinterno e tra le aree come rivela lesistenza di sincronizzazioni a corto e lungo
raggio (caratteristica propria dellintegrazione funzionale) sia spontanee che
durante compiti cognitivi. Questa unaltra prova che conferma che la complessit dipende dalla topologia del grafo e, in particolare, dalla presenza di
cicli corti.

4.8

Emergenza della coscienza

Il processo del rientro permette ai sistemi neurali di integrare un gran numero di input sensoriali e risposte motorie in parallelo. Questi sistemi neurali
connettono la percezione alla memoria e allimmaginazione e quindi legano tra di loro input sensoriali complessi a risposte del passato e a esigenze
future. Secondo Gerald Edelman, questa la base per spiegare il complesso fenomeno della coscienza, argomento cos intricato che negli ultimi anni,
molti autori si sono cimentati con il problema della natura, delle propriet e
dellorigine della coscienza. Largomento stato oggetto di molti libri ma di
pochi articoli scientifici e questo la dice lunga sulla sua estrema complessit.
Si tratta di definire che cos la coscienza, di illustrare come agisce e di quale
utilit pu essere per chi la possiede, capire se appannaggio esclusivo degli
esseri umani, come qualcuno sostiene, oppure se esiste una certa continuit
nelle specie animali diverse dalla nostra. Infine, sarebbe importante capire
se possibile riprodurla in dispositivi artificiali e creare quegli ominidi di cui
tanto si parla nei romanzi e nei film di fantascienza. Uno dei pi eminenti scienziati che si occupato dellargomento stato Gerald Edelman che
propone, innanzitutto, la distinzione tra coscienza primaria, il nucleo costitutivo della coscienza stessa, posseduta da tutti gli esseri animali, e coscienza
di ordine superiore, che emerge successivamente nellevoluzione ed una caratteristica degli animali con capacit semantiche, come gli scimpanz. La

64

CAPITOLO 4. ANALISI DEI SISTEMI NEURALI

coscienza primaria coinciderebbe, secondo lui, con la capacit embrionale di


creare una mappa interiore degli eventi esterni su cui basarsi per impostare
un ragionamento o unazione. Il nocciolo, dunque, sarebbe rappresentato
dallesterocezione, ovvero la percezione del mondo esterno, e dallinteriorizzazione dei suoi contenuti. Il punto cruciale sarebbe poi lassociazione tra
la categorizzazione percettiva e la memoria, sempre pi vasta e organizzata
con lavanzare del processo evolutivo degli animali. Nel 2003, Edelman pubblic larticolo Naturalizing consciousness: a theoretical frame work in cui
descrisse accuratamente il suo modello di coscienza. Secondo lui, il punto
di partenza per la costruzione di una teoria esplicativa della coscienza sono
i suoi studi sulle connessioni rientranti (reentry connections). Levoluzione
avrebbe infatti favorito gli animali con un maggiore numero di connessioni
rientranti che collegassero le aree posteriori del cervello, responsabili della
categorizzazione percettiva, e le aree frontali, sede della memoria e quindi capaci di ricordare, permettendo una maggiore integrazione della scena e
delle sue caratteristiche. Le interazioni rientranti attraverso i circuiti corticali permettono alle combinazioni di legame di avvenire, legando tra di loro sia
segnali del corpo stesso che segnali provenienti dallambiente esterno. Dato
che queste interazioni integrative avvengono per degenerazione, permettono
la sincronizzazione anche di segnali che occupano aree molto ampie. Secondo
Edelman, quando avremo compreso fino in fondo il meccanismo alla base,
la coscienza perder la sua misteriosit e verr accettata come una parte
dellordine naturale, ecco perch lespressione naturalizing consciousness nel
titolo del suo articolo.

Capitolo 5
Le reti neurali artificiali
C un problema di fondo... di costruire un modello matematico dei processi
del pensiero, e in particolare di quegli aspetti del pensiero che sono collegati
ai processi di informazione e decisione. Il percettrone un tipo di modello
(un insieme di dispositivi di memoria connessi in modo casuale) che non ha
ancora raggiunto risultati utili ma di sicuro sembra un approccio
promettente.
Robert E. Machol, Processi di informazione e di decisione, 1960

5.1

Che cos una rete neurale artificiale?

Le reti neurali artificiali (ANN, acronimo di Artificial Neural Network),


chiamate anche semplicemente reti neurali, sono un modello matematicoinformatico di calcolo che si ispira al modo in cui il cervello umano elabora
le informazioni cercando di simularlo allinterno di un sistema informatico.
costituito da un numero molto elevato di elementi di elaborazione, i neuroni artificiali, altamente interconnessi in modo da formare una rete molto
complessa, che lavorano allunisono per eseguire determinati compiti. Una
ANN , nella maggior parte dei casi, un sistema adattativo, che cambia la
sua struttura e le sue funzionalit nel tempo grazie alla capacit di apprendere. Come le persone, infatti, anche le ANN imparano dagli esempi e dalle
esperienze passate e, come nei sistemi biologici, anche nelle ANN lapprendimento consiste in aggiustamenti nelle connessioni sinaptiche dei neuroni.
In alcune applicazioni, in particolare in medicina, con il termine reti neurali si intende reti composte da neuroni biologici che vengono utilizzati per
svolgere una determinata funzione fisiologica nelle analisi di laboratorio. In
questo contesto, tuttavia, si far riferimento esclusivamente alle reti neurali
artificiali. Possono essere utilizzate sia per un aspetto puramente scientifico,
65

66

CAPITOLO 5. LE RETI NEURALI ARTIFICIALI

per comprendere meglio le reti neurali biologiche, ma soprattutto per risolvere problemi ingegneristici di Intelligenza Artificiale e per lapplicazione in
diversi ambiti industriali e tecnologici.

Figura 5.1: Rete Neurale Artificiale

5.2

La storia delle reti neurali artificiali

La storia delle reti neurali artificiali molto recente: risale, infatti, allincirca
a settantanni fa e pu essere suddivisa in sei grandi periodi.
1. I primi approcci: Si fa comunemente risalire linizio della storia delle reti neurali artificiali nel 1943, anno della pubblicazione dellarticolo scritto da due studiosi statunitensi, il neurofisiologo Warren
McCulloch(1898-1969) e il logico Walter Pitts(1923-1969) dal titolo
A logical calculus of the ideas immanent in nervous activity. Basandosi sulle loro conoscenze in neurobiologia, svilupparono un modello di
neurone artificiale, inteso come un combinatore lineare a soglia, con dati binari multipli in entrata e un singolo dato in uscita. Dimostrarono
che un numero opportuno di tali elementi, connessi in modo da formare
una rete era in grado di calcolare semplici funzioni booleane, tipo lor
logico e land logico. Queste strutture si basavano su dei modelli dei

5.2. LA STORIA DELLE RETI NEURALI ARTIFICIALI

67

neuroni molto semplificati: in effetti, non erano ancora state scoperte le


caratteristiche fondamentali dei neuroni scoperte da Hodgkin e Huxley
nove anni pi tardi.

Figura
5.2:
S.McCulloch

Warren
Figura 5.3: Walter Pitts

Nel 1949, lo psicologo canadese Donald Hebb (1904-1985) pubblic


The organization of behavior nel quale vennero considerate le prime
ipotesi sullapprendimento. In questo libro, inoltre, vennero proposti
collegamenti coi modelli complessi del cervello. Successivamente, si
tent di fare la stessa cosa utilizzando delle simulazioni a computer: ci
furono due gruppi di scienziati che si occuparono di questo. Farley e
Clark nel 1954 e Rochester, Holland, Haibit e Duda nel 1956. Il primo
gruppo, che era costituito da ricercatori dellIBM, mantennero sempre
il contatto con i neuroscienziati della McGill University. Quando i loro
modelli non funzionavano, si rivolgevano ai neuroscienziati per consultarli sulle modifiche da apportare. Questo fatto degno di nota perch,
per la prima volta, ci fu una forte collaborazione tra diverse discipline
scientifiche e tecnologiche: era linizio delle neuroscienze moderne.
Nel 1958 John Von Neumann(1903-1957), matematico statunitense
di origini ungheresi, pubblic The computer and the brain. In questa occasione fece il punto della situazione sulloperato finora portato
avanti dagli studiosi del campo delle reti neurali e sottoline la scarsa
precisione che queste strutture possedevano per poter svolgere operazioni complesse. Von Neumann stato un pioniere dello sviluppo
dellinformatica: i suoi studi sullorganizzazione strutturale del cervello
lo portarono a concepire la moderna struttura dei moderni computer.

68

CAPITOLO 5. LE RETI NEURALI ARTIFICIALI


2. Le promesse e la tecnologia emergente:
Dopo i primi approcci molto positivi dovuti soprattutto alla collaborazione dei neuroscienziati, molti psicologi e ingegneri si occuparono delle
reti neurali artificiali.
Nel 1958 lo psicologo statunitense Frank Rosenblatt (1928-1971)
pubblic il libro Psychological review in cui introdusse il primo schema di rete neurale, chiamato percettrone. Si trattava di un prototipo di rete neurale che riusciva a riconoscere e classificare le forme.
Il percettrone era stato pensato per fornire uninterpretazione dellorganizzazione generale dei sistemi biologici. Il modello probabilistico
di Rosenblatt era mirato allanalisi, in forma matematica, di funzioni
quali limmagazzinamento delle informazioni e della loro influenza sul
riconoscimento dei pattern. Naturalmente, a distanza di quindici anni, questo modello era molto pi sofisticato del prototipo realizzato da
McCulloch e Pitts, dal momento che i suoi pesi erano variabili e quindi
il percettrone era in grado di apprendere, non soltanto di eseguire delle
operazioni logiche.

Figura 5.4: Frank Rosenblatt


Un altro sistema che venne sviluppato nel 1960 lADALINE (ADAptive LInear Element) che venne realizzato da Widrow e Hoff dellUniversit di Stanford. Lopera di Rosenblatt stimola una quantit di
studi e di ricerche che si protrarranno per un decennio, suscitando vivo
interesse e notevoli aspettative nella comunit scientifica.
3. Periodo di frustrazione e cattiva reputazione:
Il momento magico delle reti neurali subisce un contraccolpo nel 1969
quando gli studiosi M. Minsky e S. A. Papert pubblicarono unopera

5.2. LA STORIA DELLE RETI NEURALI ARTIFICIALI

69

che gett discredito nel campo della ricerca sulle reti neurali, con conseguente diminuzione dellattenzione e dei finanziamenti al medesimo.
Nell An introduction to computational geometry, gli autori generalizzarono i limiti del percettrone a singolo strato ai sistemi multistrato.
Il percettrone mostrava difficolt anche solo nelleseguire lo xor logico
(or esclusivo) e tutte quelle funzioni non caratterizzate da separabilit
lineare delle soluzioni. Secondo gli autori, questa limitazione avrebbe
condizionato anche le strutture pi complesse, come ad esempio le reti
multistrato. Questo fatto fece diminuire lentusiasmo attorno a questo
innovativo campo che a quei tempi si chiamava cibernetica: come conseguenza, tutte le ricerche in quel campo non ebbero pi sovvenzioni e
le ricerche sulle reti sarebbero ristagnate per un decennio.
4. Innovazione:
Tuttavia, nonostante la riduzione dei fondi per la ricerca, alcuni studiosi continuarono le ricerche sulle reti neurali. In questo periodo, negli
anni 70, vennero sviluppati metodi per risolvere problemi come il riconoscimento di patterns. Molti paradigmi sviluppati in questo periodo
sono ancora alla base di lavori e studi odierni. In particolare, Steve
Grossberg e Gail Carpenters nel 1988 riuscirono a convincere la societ
a stanziare fondi a delle scuole di pensiero che esploravano algoritmi di
risonanza. Svilupparono il circuito ART (Adaptive Resonance Theory)
che si basava su modelli biologicamente plausibili. Anderson e Kohonen svilupparono indipendentemente luno dallaltro delle tecniche associative. Klopf nel 1972 svilupp la base dellapprendimento neurale
in neuroni artificiali basato su un principio biologico per lapprendimento neurale chiamato eterostasi. Nel 1974 il matematico americano
Paul Werbos, nella sua tesi di dottorato, stabil quale fosse il contesto matematico per addestrare le MLP(Multi-Layers Perceptron). In
particolare, svilupp ed us lalgoritmo di retropropagazione dellerrore nonostante dovessero passare alcuni anni prima che il suo lavoro
venisse reso pubblico. Si dovette attendere infatti il 1982, quando Hopfield riusc finalmente a confutare le tesi negative di Minsky e Papert.
Amari nel 1967 si occup di sviluppo teoretico: pubblic un articolo
in cui stabil la teoria matematica alla base dellapprendimento (metodo dellerrore-correzione) che aveva a che fare con la classificazione di
pattern adattativi. Nello stesso tempo Fukushima svilupp una rete
neurale multistrato per interpretare i caratteri della scrittura a mano.
La rete originale fu pubblicata nel 1975 e fu chiamata Cognitrono.
5. Ri-emergenza:

70

CAPITOLO 5. LE RETI NEURALI ARTIFICIALI


Siamo nel periodo fine anni 70 e inizio anni 80: riemerse linteresse
per il campo delle reti neurali e questo fu dovuto a numerosi fattori,
soprattutto per le applicazioni nellindustria, nelle istituzioni finanziarie. Siamo nel 1986 e Rumelhart, Hinton e Williams lavorarono sullalgortimo della retro-propagazione dellerrore: modificarono i pesi delle
connessioni tra i nodi in modo che la rete si avvicinasse sempre di pi
a quella desiderata.
6. Oggi:
Sono stati fatti dei progressi significativi nel campo delle reti neurali
e questo ha attirato lattenzione delle istituizioni e della ricerca. Oggi
il campo dazione rivolto soprattutto alle applicazioni commerciali. Circuiti neurali sono alla base di algoritmi che si propongono di
risolvere problemi complessi. Oggi, comunque, un periodo di transizione per la tecnologia delle reti neurali: lo sviluppo dellinformatica e
le nuove ricerche in ambito neuroscientifico porteranno a dei risultati
sorprendenti.

5.3

Struttura di una ANN

Lunit elementare delle ANN il neurone artificiale che si schematizza in


modo molto semplice. costituito da tre blocchi, ciascuno con un ruolo ben
preciso:
Primo blocco: ha la funzione di raccogliere linformazione grezza che
viene fornita alla rete e di farne una pre-elaborazione, che consiste,
di solito, in una semplice somma pesata. Il risultato viene chiamato
net-input.
Secondo blocco: si attiva una particolare funzione di attivazione
a seconda del net-input in entrata. Si tratta di funzioni nonlineari
caratterizzate da una soglia, detta appunto soglia di attivazione.
Terzo blocco: Restituisce il risultato delle elaborazioni precedenti.
Fornisce un risultato in uscita se la somma pesata dei segnali in ingresso
supera una certa soglia, altrimenti non viene fornito alcun segnale.
Tuttavia, un semplice neurone artificiale non capace di compiere elaborazioni complesse. Perch ci accada, si deve considerare un numero consistente di componenti elementari, unite tra loro con connessioni la cui forza
pu essere modificata. In questo modo, luscita di un singolo neurone in
grado di inibire o eccitare lattivazione di altri neuroni a seconda del risultato

5.3. STRUTTURA DI UNA ANN

71

Figura 5.5: Rete Neurale Artificiale


che essi devono globalmente ottenere. La connessioni di pi neuroni artificiali
d origine alle reti neurali artificiali. I neuroni sono solitamente raggruppati
in tre strati, ciascuno dei quali comprende neuroni equidistanti dagli ingressi:
ci significa che per raggiungere neuroni appartenenti ad uno stesso strato
a partire dagli ingressi, necessario un ugual numero di connessioni. La
suddivisione la seguente:
Strato di ingresso;
Strato nascosto: viene chiamato cos perch non direttamente accessibile dallesterno;
Strato di uscita;
Ciascuna unit svolge unoperazione molto semplice che consiste nel diventare attiva se la quantit di segnale che riceve supera una certa soglia
di attivazione. Se ununit diventa attiva, essa emette un segnale che viene trasmesso lungo i canali di comunicazione fino alle altre unit cui essa
connessa. Ciascun punto di connessione agisce come un filtro che trasforma
il messaggio ricevuto in un segnale inibitorio o eccitatorio aumentandone o
diminuendone nel contempo lintensit a seconda delle proprie caratteristiche
individuali. Leffetto inibitorio o eccitatorio di un neurone su un altro ad esso
collegato determinato da un peso che viene associato alla connessione. Il
legame input-output, ovvero la funzione di trasferimento della rete, non
viene programmato ma semplicemente ottenuto da un processo di apprendimento basato su dati empirici. Ogni nodo della rete neurale artificiale un
neurone semplice che modellato come un dispositivo con un certo numero
di input e di output. Opera in due modalit: modalit apprendimento o
modalit operativa. Nella prima modalit, il neurone impara ad attivarsi
oppure a no per particolari input di ingresso. Nella seconda, quando la forma
di un input gi imparato viene considerato, il suo output associato diventa

72

CAPITOLO 5. LE RETI NEURALI ARTIFICIALI

Figura 5.6: I tre tipi di strati


linput corrente. Se la forma dellinput non appartiene alla lista degli input
conosciuti, la regola dattivazione viene utilizzata per determinare se deve
attivarsi oppure no.
Sulla base di questa schematizzazione di fondo, sono stati proposti svariati
modelli di reti neurali artificiali, che si differenziano per il modello di neurone
utilizzato, il modo in cui i neuroni sono connessi e la legge di apprendimento
utilizzata nella fase di addestramento. Esistono tre tipi di apprendimento:
Apprendimento supervisionato(supervised learning): quando si dispone di un insieme di dati per laddestramento chiamato training set,
che comprende dei tipici esempi di ingressi associati agli output corrispondenti. La rete riesce ad imparare qual il collegamento che lega gli
input agli output. Successivamente, la rete viene addestrata mediante un opportuno algoritmo, di solito lalgoritmo di retropropagazione
dellerrore (backpropagation error). Questo algortimo usa tali dati allo
scopo di modificare i pesi della rete per minimizzare lerrore di previsione relativo allinsieme delladdestramento. Se laddestramento ha
successo, la rete impara a riconoscere la relazione incognita che lega
le variabili dingresso a quelle duscita, ed quindi in grado di fare
previsioni anche laddove luscita non nota a priori. Lobiettivo finale
dellapprendimento supervisionato la previsione del valore delluscita
per ogni valore valido dellingresso, basandosi soltanto su un numero
limitato di esempi di corrispondenza.

5.4. FUNZIONE DI TRASFERIMENTO

73

Apprendimento non supervisionato(unsupervised learning): basato su algoritmi daddestramento che modificano i pesi della rete facendo esclusivamente riferimento ad un insieme di dati che include le sole
variabili dingresso. Tali algoritmi tentano di raggiungere i dati dingresso e di individuare pertanto degli opportuni cluster rappresentativi
dei dati stessi, facendo uso di metodi topologici o probabilistici.
Apprendimento per rinforzo(reinforcement learning): un opportuno algoritmo si prefigge lo scopo di individuare un certo modus operandi
a partire da un processo di osservazione dellambiente esterno. Ogni
azione ha un impatto sullambiente e lambiente produce una retroazione che guida lalgoritmo stesso nel processo di apprendimento. Tale
classe di problemi postula un agente dotato di capacit di percezione che esplora un ambiente nel quale intraprende una serie di azioni.
Lambiente stesso fornisce in risposta un incentivo o un disincentivo
secondo i casi. Gli algoritmi per il reinforcement learning tentano in
definitiva di determinare una politica tesa a massimizzare gli incentivi cumulati ricevuti dallagente nel corso della sua esplorazione del
problema. Lapprendimento con rinforzo differisce da quello supervisionato poich non sono mai presentate delle coppie input-output di
esempi noti, n si procede alla correzione esplicita di azioni subottimali. Lalgoritmo focalizzato sulla prestazione in linea la quale implica
un bilanciamento tra esplorazione di situazioni ignote e sfruttamento
della conoscenza corrente.

5.4

Funzione di trasferimento

Il comportamento di una ANN dipende sia dai pesi che dalla funzione di
trasferimento che specifica per le unit. Rientra in tre categorie:
lineare: lattivit di output proporzionale alloutput totale pesato;
soglia: loutput posto ad uno dei due livelli, e ci dipende dal fatto
che linput totale maggiore o uguale a qualche valore di soglia;
sigmoide: loutput varia continuamente ma non linearmente mentre
linput cambia. Le unit sigmoidi hanno una grande somiglianza con i
neuroni rispetto alle precedenti per tutte e tre sono considerate delle
approssimazioni grossolane.
Affinch una rete neurale compia un compito specifico, dobbiamo scegliere
come le unit siano connesse ad unaltra e dobbiamo porre i pesi in connessione in modo appropriato. Le connessioni sono fatte in modo che ununit

74

CAPITOLO 5. LE RETI NEURALI ARTIFICIALI

influenzi o no unaltra. I pesi specificano la forza dellinfluenza. Possiamo


insegnare una rete a tre strati a realizzare un particolare compito usando la
seguente procedura:
1. Presentiamo la rete con degli esempi di addestramento che consistono di
una serie di attivit per le unit di input assieme al pattern desiderato
di attivit per le unit di output;
2. Si determina quanto vicino loutput attuale si adatta alloutput desiderato;
3. Cambiamo il peso di ciascuna connessione in modo che la rete produca
una migliore approssimazione delloutput desiderato.

5.5

La differenza tra neurone biologico e neurone artificiale

A questo livello di applicazione, il modello biologico del neurone, di cui ancora


non si sa completamente tutto, viene sostituito da un modello molto meno
complesso che non tiene conto delle caratteristiche biologiche, morfologiche
ed elettrochimiche del neurone vero. Il neurone artificiale cerca di imitare le
funzioni essenziali di quello biologico. dunque modellato come un piccolo
circuito costituito da una serie di dendriti che convogliano le informazioni
ad un centro operativo, chiamato corpo cellulare, in cui avviene la somma
pesata degli stimoli e da cui parte la risposta in caso di superamento del
valore soglia prestabilito. La risposta viaggia lungo un assone che verr
successivamente messo in collegamento, mediante un fitto circuito, con altri
neuroni ed altri dendriti. Dunque, dal neurone biologico si sono imitate le
propriet dei dendriti, la direzione del flusso di informazione, la funzione
dellassone, la risposta tutto o nulla e lattivazione in caso di superamento
di un valore soglia. Ci che per cambia la funzione del corpo cellulare
e purtroppo non c la possiblit di creare nuove connessioni, e quindi di
modificare larchitettura della rete neurale in caso di apprendimento.

5.6

Alcuni esempi di neuroni artificiali

Un semplice neurone un disposititvo costituto da molti input ed un solo


output e opera in due modi: il training mode (allenamento) e lusing mode
(utilizzo). Nella prima modalit, il neurone pu essere allenato per attivarsi
oppure no per particolari patterns di input. Nella seconda, quando viene

5.6. ALCUNI ESEMPI DI NEURONI ARTIFICIALI

75

individuato un pattern di input appreso, il suo output associato diventa il


corrente input. Se invece il pattern dingresso non appartiene alla lista dei
pattern dingresso, la regola di attivazione usata per determinare se il
caso di attivarsi o non attivarsi.

5.6.1

Il modello di McCulloch e Pitts

Un modello di neurone pi sofisticato quello proposto per la prima volta


da McCulloch e Pitts.

Figura 5.7: Modello di McCulloch e Pitts


Si tratta del modello di neurone pi plausibile dal punto di vista biologico ed quello pi usato nella realizzazione di reti neurali artificiali. La
sua struttura pi complessa rispetto al modello generale perch gli input
vengono pesati. Il peso un numero che va moltiplicato al particolare input.
Questi input, poi, vengono sommati tra di loro e se la somma supera un certo valore di soglia, il neurone si attiva, altrimenti non si attiva. Esprimiamo
questo modello in termini matematici:
net =

J1
X

i xi = wT x ;

i=1

y = (net).
con x = (x1 , x2 , ..., xJ1 )t e = (1 , 2 , ..., J1 )t dove xi li-esimo input,
i il peso della connessione i-esima; J1 il numero degli input, il valore
di soglia. () la funzione di attivazione che in generale continua, che
mappa i numeri reali nellinsieme (1, 1) oppure in (0, 1).
Queste sono le funzioni di attivazione pi comuni:

1 x0
1. soglia: (x) =
1 x < 0

76

CAPITOLO 5. LE RETI NEURALI ARTIFICIALI

2. funzione semilineare: (x) =

x
2a

3. funzione logistica: (x) =

1
2

x>a
a x a
x < a

1
1+ex

4. tangente iperbolica: (x) = tanh(x).


Il valore il guadagno: di solito, viene posto uguale ad 1 e viene usato
per controllare la ripidezza della funzione di attivazione. Tutte le funzioni
sono monotonicamente crescenti e tutti i neuroni della rete sono caratterizzati
dalla stessa funzione di attivazione. Questo particolare tipo di neurone
molto flessibile e potente. Ha la capacit di adattarsi a particolari situazioni
cambiando i suoi pesi oppure il valore soglia, o entrambi. Esistono molti
algoritmi che inducono il neurone ad adattarsi, come la regola Delta e la
retropropagazione dellerrore. La prima viene usata nelle reti feedforward,
mentre la seconda nelle reti feedback.

5.6.2

Il percettrone

Il lavoro pi influente sulle reti neurali risale al 1958 quando Frank Rosenblatt
parl per la prima volta del percettrone. Si tratta di un modello alla
McCulloch e Pitts (quindi con input pesati) con un processo preliminare
addizionale fissato. Le unit chiamate A1, A2, ..., Aj, sono le cosiddette unit
dassociazione e il loro compito quello di estrarre specifiche e localizzate
caratteristiche dallimmagini di input. I percettroni imitano lidea che sta
alla base del sistema visivo dei mammiferi. Sono ancora oggi utilizzati nel
riconoscimento di patterns anche se le loro potenzialit sono superiori.
net =

J2
X

i xi = t x

i=1

La funzione di attivazione comunemente usata la soglia. La particolarit


del percettrone che riesce a classificare un vettore in due classi e la regione
di decisione separata dalliperpiano t x = 0, ove un parametro
capace di spostare il limite della decisione dallorigine. Un percettrone a
singolo strato, chiamato SLP, acronimo dellespressione inglese single layer
perceptron, costituito da pi neuroni connessi tra di loro.
net = WT x
y = (net)
= (
dove net = (net1 , net2 , ..., netJ2 )t il vettore di input, y
y1 , y2 , ..., yJ2 )t e
(net) = (1 (nett1 ), 2 (nett2 ), ..., J2 (nettJ2 )) dove i la funzione di attivazione delli-esimo neurone.

5.6. ALCUNI ESEMPI DI NEURONI ARTIFICIALI

77

Ladattamento di W guidato dallerrore su cui di pu applicare un


algoritmo di controllo dellerrore. La funzione del criterio del percettrone :
X
E(w) =
(wt x)
x

usando il metodo del gradiente discendete, ove linsieme dei casi misclasificati da w. I pesi vengono modificati in maniera da ridurre il numero
delle classificazioni. Questo lalgoritmo di apprendimento del percettrone:
nett,j =

J1
X

xt,i ij (t) j = wjt xt j

i=1

con


yt,j =

1, nett,j > 0
0, altrimenti

con et,j = yt,j yt,j e ij (t + 1) = ij (t) + xt,i et,i per i = 1, ..., J1 , j =


1, ..., J2 , dove
nett,j il net input del j-esimo neurone per il t-esimo esempio;
wj = (1j , 2j , ...J1 j )t il vettore che colleziona tutti i pesi fino al
j-esimo neurone;
j la soglia per il j-esimo neurone;
xt,i i-esimo input per lesempio t-esimo;
yt,j e yt,j sono, rispettivamente, loutput della rete e loutput desiderato
per il j-esimo neurone per il t-esimo esempio, con valori nulli o uguali
allunit rappresentando la membership della classe;
et,j la differenza tra yt,j e yt,j
la velocit di apprendimento.
Tutti i pesi della rete wij sono inizializzati in modo casuale. La scelta di
non influenza la stabilit dellapprendimento del percettrone ma influenza
la velocit di convergenza solo se il vettore iniziale dei pesi diverso da
zero. La velocit di apprendimento tipicamente selezionata per avere il
valore 0.5. Il processo di apprendimento si arresta quando gli errori sono
sufficientemente piccoli. Quando viene utilizzato per risolvere problemi di
classificazione, lalgoritmo di apprendimento pu operare solo per patterns
linearmente separabili e non termina per pattern linearmente inseparabili.

78

CAPITOLO 5. LE RETI NEURALI ARTIFICIALI

Sono state studiate matematicamente le limitazioni dellapprendimento del


percettrone: il fallimento dei metodi di convergenza dei problemi linearmente
inseparabili dovuto allincapacit dei metodi di trovare il minimo nella
funzione di errore.

Figura 5.8: Percettrone

5.7
5.7.1

Larchitettura delle reti neurali


Le reti feedforward

Le reti feedforward permettono


al segnale di viaggiare in una sola direzione, dallinput alloutput.
Non ci sono cicli di feedback, cio
loutput di qualsiasi strato non coinvolge lo stesso strato. Sono reti dirette che associano input ad output. Sono molto usati nel riconoscimento dei patterns.

5.7.2

Le reti feedback

Figura 5.9: Feedforward Networks

In queste reti, i segnali possono viaggiare in entrambe le direzioni inserendo


dei cicli nelle reti. Sono molto efficienti e possono diventare estremamente
complicate: sono dinamiche, il loro stato cambia continuamente fino a che
non raggiungono un punto di equilibrio. Restano in questo stato fino a che
nuovi input non vengono cambiati e non ci sia bisogno di avere un altro punto
di equilibrio.

5.8. REGOLA DI HEBB

79

Figura 5.10: Feedback Networks

5.8

Regola di Hebb

Questa regola un modello di congiunzione tra lapprendimento biologico e


quello artificiale. Riesce a descrivere la plasticit delle unit neurali in contesti di apprendimento associativo. La sua formulazione originale risale al 1949
quando Donald Hebb, nel suo libro The organization of the behavior, scriveva: "quando un assone della cellula A (cellula presinaptica) prende parte
ripetitivamente nel processo di eccitamento della cellula B (cellula postsinaptica), qualche cambiamento strutturale o metabolico subentra in una o in
entrambe le cellule in modo che lefficienza di A come cellula eccitatrice di
B aumenti". Successivamente, Hebb diede un ulteriore contributo alla teoria connessionista estendendo la regola di Hebb a gruppi di neuroni: questi,
attivandosi insieme, formano raggruppamenti cellulari associativi. Secondo
Hebb, lattivit cognitiva, dunque il pensare, il prendere decisioni, lelaborare
una risposta, determinata dallattivazione sequenziale di questi gruppi. In
termini matematici, la formulazione pi semplice per descrivere la regola di
Hebb quella che segue:
wij = xi xj
wij rappresenta la variazione dellefficienza sinaptica tra i neurone i
ed il neurone j ed la velocit di adattamento. Risulta evidente che se
due cellule si attivano contemporaneamente lefficienza della sinapsi che le
collega viene rafforzata. Questo permette di dar luogo ad un fenomeno di
adattamento associativo che prescinde dalla presenza di una supervisione
esterna allattivit neurale.

80

CAPITOLO 5. LE RETI NEURALI ARTIFICIALI

5.9

Classificazione delle reti neurali

Esistono molti tipi di reti neurali che si distinguono sulla base di alcune
caratteristiche fondamentali.
tipo di utilizzo;
tipo di apprendimento;
algoritmo di apprendimento;
architettura dei collegamenti.
La divisione fondamentale quella relativa al tipo di apprendimento che, in
genere, supervisionato o non supervisionato ma, dal punto di vista del tipo
di utilizzo, possiamo distinguere tre categorie basilari:
memorie associative: riescono ad apprendere associazioni tra patterns in modo che la presentazione di un pattern A dia come output
il pattern B anche se A impreciso o parziale (resistenza al rumore).
La memoria associativa usata anche per fornire in uscita il pattern
completo in risposta ad un pattern parziale in input.
simulatori di funzioni matematiche: sono in grado di capire la
funzione che lega loutput con linput in base a degli esempi forniti
in fase di apprendimento. Dopo la fase di apprendimento, la rete
in grado di fornire un output in risposta ad un input che pu anche
discostarsi da quelli usati negli esempi di addestramento. La rete, dunque, mette in evidenza la capacit di interpolazione ed estrapolazione
sui dati del training set. La rete si comporta come una black box
perch non svela in termini leggibili la funzione di trasferimento che
contenuta al suo interno. Di questo gruppo, fa parte la rete a retropropagazione dellerrore che quella attualmente pi utilizzata per
efficacia e flessibilit.
classificatori: con essi possibile classificare dei dati in specifiche
categorie in base a caratteristiche di somiglianza. In questo ultimo tipo
di rete, si fa ricorso al concetto di apprendimento non supervisionato
o auto-organizzante, nel quale i dati di input vengono distribuiti su
categorie non predefinite. Lalgoritmo di apprendimento di una rete
neurale dipende essenzialmente dal tipo di utilizzo della stessa cos
come larchitettura dei collegamenti: le reti multistrato prevedono, in
generale, lalgoritmo a retropropagazione dellerrore. I classificatori
normalmente derivano dallarchitettura delle mappe auto-organizzanti

5.10. LALGORITMO DELLA RETROPROPAGAZIONE DELLERRORE81


di Kohnen ed esistono diverse regole di base per lapprendimento, ma
sono sempre in fase di studio nuovi paradigmi pi efficaci.

5.10

Lalgoritmo della retropropagazione dellerrore

Per addestrare una rete neurale in modo che svolga un certo compito, si
devono aggiustare i pesi di ciascuna unit in modo che lerrore tra loutput
desiderato e loutput attuale venga ridotto. Questo processo richiede che la
rete neurale calcoli la derivata dellerrore dei pesi, che indicheremo con EW.
Deve calcolare come lerrore cambia mentre ciascun peso viene lentamente
incrementato o decrementato. Questo metodo quello pi comunemente
usato per determinare i vari EW. Lalgoritmo della retropropagazione dellerrore o back-propagation pi facile da comprendere se supponiamo che
tutte le unit della rete siano lineari. Lalgoritmo calcola ciascun EW calcolando inizialmente EA che la velocit con cui lerrore cambia mentre il
livello delle unit cambiato. Per le unit di output, EA semplicemente
la differenza tra loutput attuale e quello desiderato. Per calcolrare EA per
ununit nascosta nello strato intermedio, prima identifichiamo tutti i pesi
tra questa unit nascosta e quelle di output alle quali sono connesse. Poi
si moltiplicano questi pesi per le EA di quelle componenti e si sommano i
prodotti. La somma uguaglia le EA per le unit nascoste scelte. Dopo aver
calcolato tutte le EA nello strato nascosto, si pu calcolare allo stesso modo
le EA degli altri strati, spostandosi di strato in strato in direzione opposta
a quella in cui lattivit si propaga attraverso la rete. Per questo si chiama
"back propagation". Una volta che le EA sono state calcolate per ununit
si calcola immediatamente la EW per ciascuna connessione successiva della
rete. EW il prodotto di EA e dellattivit attraverso la connessione successiva. Per le unit non lineari, lalgoritmo di back propagazione include uno
step in pi. Prima della back propagation, EA deve venir converita in EI che
la velocit alla quale lerrore cambia mentre linput totale cambia. Per i
calcoli matematici, si consulti lappendice B.

5.11

Le applicazioni

Le ANN hanno unampia diffusione nel mondo reale e sono gi state applicate
con successo in molte industrie. Grazie alla loro ragguardevole capacit di
derivare il significato da dati molto complicati o imprecisi, possono essere
applicate per estrarre patterns o capire trend dallanalisi dei dati che sono

82

CAPITOLO 5. LE RETI NEURALI ARTIFICIALI

troppo complessi per essere compresi dagli uomini o dal computer. Tra le
numerose applicazioni, ricordiamo:
previsioni sulle vendite;
controllo di processi industriali;
ricerche sui dati dei clienti;
validit dei dati;
gestione del rischio.
Inoltre sono utilizzate anche per riconoscere le voci nelle comunicazioni; diagnosticare malattie, soprattutto lepatite; proteggere le telecomunicazione da
software danneggiati; interpretare vocaboli a pi significati della lingua cinese; individuare mine sotto il mare; analizzare tessuti biologici; riconoscere
oggetti tridimensionali; riconoscere la calligrafia; riconoscere facce.

5.12

Conclusioni

Il mondo delle applicazioni non pu pi fare a meno delle reti neurali: la


loro abilit di imparare dallesempio le rende molto flessibili e adatte a molti
impieghi. Inoltre, sono vantaggiose perch non richiedono un algoritmo ad
hoc per eseguire un determinato compito e sono molto adatte per i sistemi
a tempo reale, perch le loro risposte sono velocissime come i loro tempi di
computazione. Le reti neurali inoltre, danno il loro contributo ad altre aree di
ricerca, come la neurologia e la psicologia. Sono regolarmente utilizzate per
rimpiazzare parti di organismi viventi e per scoprire il meccanismo interno
del cervello. Forse laspetto pi interessante delle reti neurali la possibilit che un giorno si possa realizzare una rete dotata di coscienza. C un
numero consistente di studiosi che discutono sulla natura della coscienza, affermando che sia una propriet meccanica e che quindi reti neurali coscienti
siano una possibilit reale. Di sicuro, anche se le reti neurali da sole hanno
un enorme potenziale, ricaviamo il meglio di esse solo quando sono applicate
allIntelligenza Artificiale.

Capitolo 6
Intelligenza Artificiale
Credo che alla fine del secolo luso delle parole e lopinione delle persone di
cultura saranno cambiate a tal punto che si potr parlare di macchine
pensanti senza aspettarsi di essere contraddetti.
Alan M. Turing, Computing Mind and Intelligence, 1950

6.1

Introduzione

Una delle pi affascinanti applicazioni delle reti neurali artificiali riguarda


lIntelligenza Artificiale, la branca della scienza che studia i meccanismi che
soggiacciono alle facolt cognitive degli esseri umani e la loro riproduzione
mediante i calcolatori. LIntelligenza Artificiale, abbreviata con il simbolo
AI acronimo dellinglese "Artificial Intelligence" si occupa di tutto quello che
riguarda il comportamento intelligente, dunque: la percezione, il ragionamento, lapprendimento, la comunicazione e lazione in un ambiente molto
complesso. Uno degli obiettivi principali dellAI la realizzazione di macchine che riescano a fare le stesse cose che riescono a fare gli umani, anche
meglio. Allo stesso tempo, lAI si propone di comprendere questo tipo di
comportamento, non importa se avviene nelle macchine, negli esseri umani o
negli animali, dunque oltre ad un obiettivo ingegneristico, ce n anche uno
scientifico.
Lespressione Artificial Intelligence, ovvero "Intelligenza Artificiale" in
italiano, fu coniata dallinformatico statunitense John McCarthy(1927-2011),
in occasione di un famoso seminario interdisciplinare svoltosi nella citt di
Dartmouth nel New Hampshire nel 1956. A detta di uno dei pionieri dellintelligenza artificiale, linformatico e scienziato statunitense Marvin Minsky
(1927), lo scopo di questa nuova disciplina quello di far fare alle macchine
delle cose che richiederebbero lintelligenza se fossero fatte dagli uomini. Gi
83

84

CAPITOLO 6. INTELLIGENZA ARTIFICIALE

nel 1952, Minski parlava di intelligenza artificiale nella sua tesi di oltre mille
pagine presentata per il dottorato di Matematica delluniversit di Princeton.
In seguito, sarebbe diventato uno dei massimi studiosi dei processi mentali e
delle loro applicazioni nei sistemi computerizzati: a lui si devono, ad esempio,
gli studi sui frames, ovvero quelle strutture che riproducono il concetto di
stereotipo per le macchie intelligenti.
LA.I. si suddivide in due aree fondamentali:
Intelligenza Artificiale Forte: ritiene che un computer, se correttamente programmato, possa essere veramente dotato di una intelligenza
pura, non distinguibile dallintelligenza umana. Alla base di questa teoria, il concetto proposto dal filosofo empirista inglese Thomas Hobbes (1588-1679), il quale sosteneva che ragionare non nientaltro che
calcolare.
Intelligenza Artificiale Debole: sostiene che un computer non sar
mai in grado di raggiungere il livello della mente umana ma potr solo
arrivare a simulare alcuni processi congnitivi umani, senza mai riuscire
a riprodurli nella loro totale complessit.
Le due declinazioni, tuttavia, hanno lorigine comune, quella della necessit di elaborare linformazione alla base dei processi cerebrali, opportunamente modellati, attraverso dei programmi informatici. Questo il punto di
partenza dellla cosiddetta Intelligenza Artificiale Classica.

6.2

Cenni storici

Il primo di tanti passi verso lIntelligenza Artificiale stato fatto nellantichit


da Aristotele quando cerc di spiegare e codificare un metodo di ragionamento deduttivo che chiam sillogismo. Nel Medioevo, Ramon Llull (1235-1316),
un poeta e mistico catalano, costru una serie di ruote che chiam Ars Magna
che era considerata una amcchina capace di rispondere a tutte le domande
che le si poneva. Gottfried Leibniz(1646-1716) ebbe un sogno: quello di
unalgebra per mezzo della quale tutte le conoscenze, incluse le verit metafisiche e morali, potesse un giorno essere arrivata mediante un semplice sistema
deduttivo. Se per Intelligenza Artificiale pensiamo alla capacit di una macchina di svolgere dei calcoli, seppur semplici, allora il primo prototipo di AI
risale al XVII secolo quando lo scienziato e filosofo francese Blaise Pascal
(1623-1662) invent una macchina capace di eseguire automaticamente addizioni e sottrazioni. Si trattava della cosidetta "Pascalina", una macchina
aritmetica, capostipite dei calcolatori ad ingranaggi. Ad avere lidea di un

6.2. CENNI STORICI

85

primo calcolatore programmabile, invece, fu il matematico britannico Charles Babbage (1791-1871). Si trattava di una macchina calcolatrice a rotelle
che riusciva a fare calcoli differenziali. Per problemi tecnici non riusc mai a
funzionare e avrebbe dovuto essere programmata con schede perforate, come
accadde per i successivi calcolatori. La seconda macchina che progett la
macchina analitica, ma non venne mai realizzata. Nel 1854 George Boole
svilupp i fondamenti della logica proposizionale. Il suo obiettivo era quello
di travre qualche fondamento della natura e della forma della mente umana.
Verso la fine del XIX secolo, Gottlieb Frege propose un sistema notazionale
per il ragionamento meccanico e nel fare ci invent molto di quello che noi
oggi chiamiamo calcolo dei predicati.
Herman Hollerith(1860-1929), ingegnere statunitense, uno dei padri
dellinformatica e primo fondatore dellIBM, ide le schede perforte applicate alle calcolatrici attorno al 1885: questo sistema fu usato per la prima volta
per i calcoli relativi allundicesimo censimento americano risalente al 1891.
Questo sistema meccanografico riscosse cos tanto successo che fu indotto a
fondare la Tabulating Machine Corporation. In seguito i calcolatori furono
impiegati per scopi bellici, in particolare per migliorare il tiro dellartiglieria.
Solo nella met del secolo scorso si pu disporre di dispositivi di calcolo e
linguaggi di programmazione abbastanza potenti da permettere sperimentazioni sullintelligenza artificiale. Nel 1946 nasceva lENIAC concepito come
calcolatore moderno nel 45 da John Von Neumann: faceva lelaborazione a
lotti nellordine di migliaia di informazioni al minuto. La programmazione
avveniva tramite schede. Nel 1958 John McCarty usando il calcolo dei predicati di Frege un linguaggio per rappresentare ed usare la conoscenza in un
sistema che lui chiam "advice taker". Unimplementazione di queste idee la
fece Cordell Green costruendo il sistema QA3 senza molto successo, per. Il
calcolo dei predicati e le sue applicazioni sono considerati i fondamenti della
rappresentazione della conoscenza nellAI. I logici del ventesimo secolo tra i
quali Kurt Gdel, Stephen Kleen, Emil Post, Alonzo Church e alan Turing
hanno formalizzato e chiarito molto quello che poteva o non poteva essere
fatto con i sistemi logici e computazionali.
La seconda generazione di computer si ha negli anni 60: si tratta dei "The
time sharing" che erano sistemi basati sulla divisione di tempo ed erano pi
veloci: pi terminali erano collegati ad un unico computer centrale. A quellepoca, i programmi erano fortemente condizionati dai limiti dei linguaggi
di programmazione oltre che dai limiti di velocit e memoria degli elaboratori. La svolta si ha tra gli anni 50 e 60 con i linguaggi di manipolazione
simbolica.
Il punto di svolta della materia si ebbe nel 1950 quando apparse sulla
rivista Mind un importante articolo di Alan Turing (1912-1954) intitolato

86

CAPITOLO 6. INTELLIGENZA ARTIFICIALE

"Computing Machinery and Intelligence". Alan Turing considerato uno dei


padri dellinformatica e dellintelligenza artificiale, da lui teorizzate ben prima della creazione di un computer vero e proprio. In questo lungo articolo,
viene indicata la possibilit di creare un programma all fine di far comportare
un computer in maniera intelligente. La progettazione di macchine intelligenti dipende fortemente dalle possibilit di rappresentazione simbolica del
problema.
Nello stesso anno, Arthur Samuel present il primo programma capace
di giocare a dama: fu un risultato molto importante perch dimostrava la possibilit di superare i problemi tecnici dovuti al linguaggio di programmazione
e realizzare dei sistemi capaci di risolvere problemi tradizionalmente legati
allintelligenza umana. Inoltre, labilit di gioco viene appresa dal programma scontrandosi con avversari umani. Nel 1956 nella gi citata conferenza in
Dartmouth, venne illustrato un programma che segn unaltra tappa fondamentale dello sviluppo dellAI: si trattava del primo dimostratore automatico
di teoremi.
Il 1962 segn un cambiamento epocale nella storia dellAI: si diede meno importanza allapprendimento mentre pose laccento sulla rappresentazione della conoscenza e sul problema ad essa connesso al superamento del
formalismo finora a disposizione e liberarsi dalle costrizioni dei vecchi sistemi.
I primi anni settanta vedono lo sviluppo dei sistemi di produzione ossia dei
programmi che sfruttano un insieme di conoscenze organizzate in base di dati.
Inoltre, venne esplorata una grande variet di problemi, tipo le tecniche di
rappresentazione, di ricerca per creare dei programmi che potessero risolvere
semplici giochi, come puzzle, giochi e informazioni di recupero. Dal punto di
vista matematico, in questo periodo che si cerc di creare dei programmi che
potessero risolvere integrali, problemi algebrici e controllare un robot. Nel
periodo che va dalla fine degli anni settanta ai primi anni degli anni ottanta,
si sono sviluppati i primi programmi che volevano imitare la performance
degli esseri umani, come la diagnosi, il design e lanalisi. In questi anni ci
fu lo sviluppo del programma DENDRAL, un sistema che poteva predire
la struttura di molecole organiche una volta fornite la formula chimica e le
analisi dello spettrogramma di massa. Sicuramente un grande apporto allo
sviluppo dellAI venuto dallo sviluppo dei giochi per computer. Nel 1997
un programma dellIBM chiamato Deep Blue riusc a battere il campione del
mondo in carica di scacchi Garry Kasparov. Tutto questo fu reso possibile
da algoritmi di ricerca molto sofisticati, da computer ad alta velocit e un
hardware particolare, costruito appositamente per il gioco degli scacchi. Nel
2006 si celebr il cinquantesimo anniversario dellintelligenza artificiale con
due congressi.

6.3. LA MACCHINA UNIVERSALE DI TURING

6.3
6.3.1

87

La macchina universale di Turing


Il problema della decisione di Hilbert e i teoremi
di incompletezza di Gdel

Alan Mathison Turing nacque a Londra il 23 giugno 1912, da Julius Mathison


Turing, ufficiale del governo inglese presso lIndian Civil Service, e da Ethel
Sara Turing, nata Stoney, di origine irlandese e parente del fisico George J.
Stoney che diede il nome allelettrone nel 1874, ventanni prima che fosse
scoperto.
Fin dalla sua pi tenera et, Turing
mostr di essere dotato di grande curiosit ed inventiva, tant che si interess alle
cifre ancora prima di essere in grado di
leggere. Diede idea fin da bambino della
grande genialit che negli anni futuri lo
render famoso in tutto il mondo.
Nel 1928, cominci a frequentare la
Sherborne School dove si specializz in
matematica e scienze. Tre anni pi tardi, divenne uno studente del Kings College dellUniversit di Cambridge dove
frequent la facolt di matematica. Qui
approfond i suoi studi sulla meccanica Figura 6.1: Alan Mathison Tuquantistica, la logica e la teoria della pro- ring
babilit, arrivando a dimostrare il teorema del limite centrale indipendentemente da Lindeberg che lo pubblic nel 1922. Nel 1934 si laure con il
massimo dei voti e due anni pi tardi vinse il premio Smith, un riconoscimento che veniva assegnato ai due migliori studenti ricercatori in Fisica e
Matematica presso lUniversit di Cambridge.
Nel 1935 frequentando le lezioni di logica di Max Newman, venne a conoscenza dell Entscheidungsproblem o problema della decisione che David
Hilbert pubblic nel 1900. Turing, come tanti altri matematici a lui contemporanei, tra i quali John Von Neumann, era cresciuto sotto linfluenza
del matematico di Knisgberg considerato una delle personalit pi eminenti
ed influenti del periodo a cavallo tra il XIX e il XX secolo. In particolare,
fu colpito profondamente dal suo ambizioso programma di formalizzazione
della matematica, dopo i successi ottenuti con lo stesso obiettivo nel campo
geometrico. Nel 1900, infatti, in occasione della sua conferenza del Secondo
Congresso Internazionale dei Matematici tenutasi a Parigi, Hilbert present
una lista contenente ventitr problemi matematici ancora irrisolti e cruciali

88

CAPITOLO 6. INTELLIGENZA ARTIFICIALE

per il programma di formalizzazione che aveva in mente. Il secondo problema della lista era lEntscheidungsproblem che verteva sullesistenza di una
procedura rigorosamente meccanica per distinguere enunciati dimostrabili e
indimostrabili allinterno di un dato sistema formale. Si trattava, in altre
parole, di risolvere questo problema: "Poteva esistere una procedura decisionale che, per ogni enunciato espresso in un dato linguaggio, fosse sempre in
grado di produrre una prova della verit o della falsit di quellenunciato?".
Per ogni problema espresso in linguaggio matematico, si poteva dire a priori
se ammetteva o meno una soluzione? Ecco cos il problema della decisione.
Nel 1931, Kurt Gdel, matematico e logico austriaco naturalizzato statunitense, pubblic i suoi due famosi Teoremi di Incompletezza con i quali
diede una risposta al problema della decisione di Hilbert. Sosteneva che nessun sistema matematico coerente, sufficientemente espressivo per descrivere
laritmetica ordinaria, poteva essere in grado di dimostrare la propria coerenza, n poteva essere completo. In altre parole, secondo Gdel ci sono
affermazioni vere in un sistema formale che non possono essere provate dalle
regole logiche del sistema. I teoremi di Gdel sono definiti anche teoremi
limitativi perch precisano quali propriet un sistema non pu avere.

Figura 6.2: David Hilbert

Figura 6.3: Kurt Gdel

Segue il Primo Teorema di Incompletezza di Gdel: In ogni teoria matematica T sufficientemente espressiva da contenere laritmetica, esiste una
formula tale che, se T coerente, allora n n la sua negazione sono
dimostrabili in T.
Segue il Secondo Teorema di Incompletezza: Sia T una teoria matematica
sufficientemente espressiva da contenere laritmetica: se T coerente, non
possibile provare la coerenza di T allinterno di T. In quello stesso periodo,
Bertrand Russel e Alfred N. Whithead tentarono di risolvere il problema di

6.3. LA MACCHINA UNIVERSALE DI TURING

89

assiomatizzazione della matematica pubblicando il trattato Principia Mathematica (PM). Gdel lo prese in riferimento per dimostrare il suo primo
teorema e la sua dimostrazione fu cos generale, che convinse tutti i matematici. Part dal fatto che regole e frasi sui numeri naturali sono oggetti di
lunghezza finita e invent, in modo geniale, lidea di codificare assiomi e regole con gli stessi numeri naturali, idea che poi venne ripresa e concretizzata
da Turing dando inizio, a sua insaputa, ad una delle rivoluzioni pi importanti della storia delluomo: linformatica. Gdel sostenne che propriet e
dimostrazioni sui numeri naturali potevano essere trasformate in propriet
e dimostrazioni riguardo i numeri naturali. E cos fece per la frase: Io non
sono dimostrabile in PM. Dopo aver denotato con G la frase Io non sono
dimostrabile in PM, supponiamo che G non sia vera: allora ci significa
che G deve essere dimostrabile usando PM. Ma la nostra intuizione dice che
se una cosa dimostrabile in PM allora deve essere vera e quindi G deve
essere vera. Ma G dichiara di non essere dimostrabile, quindi ci troviamo di
fronte al caso in cui G sia una frase vera ma non dimostrabile in PM.
Il secondo teorema distrusse completamente il programma di Hilbert: dimostr che non era possibile verificare la consistenza della teoria PM allinterno della teoria stessa. PM era consistente ma la sua consistenza non
poteva venire dimostrata. Le conseguenze dei teoremi di Gdel sono tali che
non pu esistere un algoritmo che sia in grado di dire quali proposizioni o
propriet dei numeri naturali (o di qualunque sistema assiomatizzato) siano
vere e quali siano false.

6.3.2

La risposta di Turing

Quando Turing venne a conoscenza di questo problema, ebbe la percezione


istintiva che fosse possibile dimostrare lesistenza di problemi matematici che
non potessero essere trattati mediante procedure strettamente meccaniche,
cio gli algoritmi. Gi dal primo teorema di Gdel, nasceva lesigenza di
una definizione formale di algoritmo, che doveva servire a decidere se una
proposizione fosse vera o falsa sapendo che una dimostrazione matematica
stessa poteva essere formulata come algoritmo. Per primo, infatti, Gdel
ebbe lidea di codificare le stringhe di simboli in numeri naturali. Turing
allora propose una soluzione molto semplice e molto originale che pubblic
nel 1936 nel suo articolo On Computable Numbers. Secondo lo studioso, un
algoritmo era pensabile in termini di manipolazione di simboli, ove le regole
di manipolazione erano anchesse scritte con stringhe di simboli, ad esempio
delle istruzioni. Poi perfezion questo aspetto, sostenendo che le procedure
di manipolazione dovevano essere deterministiche, cio tutto doveva seguire
una logica e niente doveva venire lasciato al caso. Da qui allora ebbe lidea

90

CAPITOLO 6. INTELLIGENZA ARTIFICIALE

di una macchina, la famosa macchina di Turing, costituita da un nastro


infinito su cui scrivere o leggere simboli e un dispositivo deterministico per
decidere cosa scrivere o leggere e come muoversi lungo il nastro. Prese spunto
da Gdel e dalla sua idea di codificare con numeri naturali le funzioni: le funzioni sono computabili se esiste una sequenza finita di istruzioni che prescrive
esattamente come elencare il valore della funzione in f (0) e per ogni numero
naturale n. Un numero computabile, secondo Turing, e quindi esiste una
sequenza finita di istruzioni che prescrive esattamente quale funzione associargli se la sua parte decimale pu essere prodotta da una macchina. In quel
periodo, tra le altre cose, si era interessato allanalisi reale e, in particolare,
al problema del continuum. Questa macchina che Turing defin di calcolo
logico consisteva in una black box in grado di leggere e scrivere un alfabeto
finito di simboli da e su un nastro di carta di lunghezza infinita e in grado
di modificare il proprio stato mentale (o configurazione-m, come lo definiva
Turing). In questo articolo, la sua macchina aveva laspetto di un computer
che per nel 1935 non aveva la stessa accezione di adesso: era una macchina
capace di eseguire calcoli, identificabile con un essere umano equipaggiato di
carta, matita e tempo a disposizione.
Turing ha astratto completamente il
concetto di macchina assumendo che potesse assumere un solo stato possibile in
ogni istante e che lo stato dipendesse da
cosa stato scritto o letto sul nastro e da
cosa deve essere fatto al passo successivo
per passare ad un nuovo stato. La tesi di
Turing stata di ipotizzare che qualun- Figura 6.4: Statua commemoratique procedura simbolica computabile o va di Turing
algoritmica nel senso intuitivo se siamo in grado di definire una macchina di
questo genere in grado di svolgere la procedura. Secondo lui, era possibile
inventare una singola macchina che potesse essere usata per calcolare qualsiasi sequenza computabile. Dato che il numero di macchine possibili una
quantit numerabile mentre il numero delle funzioni non lo , devono esistere
funzioni non computabili e di conseguenza numeri non computabili. Usando
un metodo simile a quello di Gdel, Turing riusc a costruire funzioni di cui
si poteva dare una descrizione finita ma che non potevano essere calcolate
con strumenti finiti, tipo la funzione di terminazione. In questo modo, riusc
a dare una risposta al problema della decisione di Hilbert: non esisteva una
procedura meccanica affidabile per determinare, in un numero di passi finito,
se un certo enunciato matematico fosse o non fosse dimostrabile. La teoria di
Turing fu ben vista da Gdel stesso, sempre critico nei confronti di tutti gli
sforzi volti a confermare i suoi risultati e la cosa che lo soddisf maggiormen-

6.3. LA MACCHINA UNIVERSALE DI TURING

91

te, era che venne dato un risultato indipendente dal formalismo scelto. Dopo
aver spinto pi avanti che poteva i confini della logica matematica con la sua
macchina universale, Turing cominci ad interrogarsi su come sfuggire alle
limitazioni dei sistemi formali chiusi e delle macchine puramente deterministiche. Nel 1939 pubblic la sua tesi di dottorato intitolata Systems of Logic
Based on Ordinals in cui cercava di trascendere lincompletezza godeliana
costruendo una successione di sistemi formali via via pi completi. Pass
quindi ad evocare una nuova categoria di macchine che procedevano per via
deterministica, passo dopo passo, ma che di tanto in tanto effettuavano dei
balzi in avanti non deterministici consultando quasi una sorta di oracolo. Secondo Turing, questo oracolo non poteva essere una macchina e dimostr che
anche in presenza di questo oracolo esterno, era ancora possibile costruire
enunciati indecidibili. Queste macchine proposte nel 1939 erano pi vicine
al modo in cui funziona lintelligenza artificiale: per un certo numero di passaggi si eseguivano le sequenze logiche e, per colmare i vuoti, provvedeva
lintuizione. In quellepoca, tutte le attenzioni erano concentrate sulle macchine di Turing universali, quelle in cui i numeri cominciavano a fare cose,
anticipando quello che oggi conosciamo con il nome di software. Dopo alcuni
anni di pausa concomitanti alla Seconda Guerra Modniale, in cui Turing fu
impegnato sul fronte della crittografia e la decodificazione della macchina
Enigma, nel 1945 pubblic un articolo Proposed Electronic Calculator in cui
forn la descrizione completa di un motore di calcolo automatico, che chiam
ACE. Lo scopo era quello di vedere la teoria logica della macchina universale
descritta in precedenza prendere una forma concreta. Contrariamente a quello che avvenne nella storia delle reti neurali, che vennero ideate e migliorate
imitando i neuroni biologici, Turing si avvicin alla biologia, in particolare
allo studio del cervello, solo dopo aver pubblicato e descritto accuratamente la macchina universale. I suoi collaboratori raccontarono che il lavoro di
Turing si stava spingendo sempre di pi in direzione della biologia, e non
contento di aver cercato di riprodurre le funzioni inferiori del cervello, stava
cercando di capire fino a che punto una macchina poteva riuscire ad imitare
quelle superiori. Si stava chiedendo come una macchina potesse imparare
dallesperienza. Si chiedeva se lincompletezza dei sistemi formali limitasse
la capacit dei calcolatori di replicare lintelligenza e la creativit della mente umana ma Turing trov una risposta molto semplice: non si dovevano
cercare macchine infallibili ma creare macchine fallibili, che riuscessero ad
imparare dagli errori, perch sosteneva che il requisito dellintelligenza non
fosse quello di non commettere errori ma di rimediare agli errori e imparare
dallesperienza. Tra le prime proposte concrete per realizzare tale proposito,
sugger di includere nella macchina un generatore di numeri casuali fornendo
al calcolatore la capacit di fare un tentativo e poi avvalorare o scartare i

92

CAPITOLO 6. INTELLIGENZA ARTIFICIALE

risultati che ne derivavano. Se questi tentativi fossero stati applicati alla


modifica delle istruzioni stesse del calcolatore, una macchina avrebbe potuto
imparare ad insegnare a se stessa. Turing sottolineava che la comunicazione di informazioni alla macchina universale era equivalente alla sostituzione
delle sue componenti artificiali. In seguito, prese in considerazione un semplice modello con unit capaci di due stati possibili e collegate ognuna con
due input e un output, concludendo che macchine di questa natura possono
comportarsi in modo molto complicato quando il numero di unit significativo. Dimostr come queste macchine non organizzate potevano essere
congegnate in modo da essere in grado di modificarsi da sole e, se addestrate
in maniera appropriata, di diventare pi complesse di qualunque cosa potesse essere inventata. Poi fece unipotesi evolutiva sul cervello umano: molto
probabilmente in origine, doveva essere come una macchina non organizzata
e molto semplice, che col tempo, come tutti gli altri organi si evoluta per
riprodurre qualcosa di tanto complicato. Allora da qui gli venne lintuizione
di cominciare a studiare una macchina bambina che come i bambini avesse
molta curiosit e attenzione verso il mondo esterno. La macchina sarebbe
diventata adulta nel momento in cui avrebbe messo da parte le esperienze e
messe in memoria pronte per essere utilizzate successivamente.
Queste idee rimandano alle reti neurali artificiali e ai sistemi complessi
che abbiamo trattato nei capitoli precedenti, ma Turing ci arriv percorrendo
un sentiero inverso: part dai fondamenti della matematica per arrivare al
cervello e allIntelligenza Artificiale. Proprio per questo motivo, Turing
considerato una delle menti pi geniali di sempre e, di sicuro, se la sua
vita non fosse stata cos breve, al giorno doggi i programmi di Intelligenza
Artificiale sarebbero stati sicuramente pi sviluppati.

6.4

Fondamenti teorici dellAI

LIntelligenza Artificiale si fonda si alcuni fondamenti teorici:


Il ragionamento e ogni tipo di attivit mentale calcolo;
Il calcolo inteso come manipolazione di simboli in base a regole
prestabilite;
Il simbolo un oggetto che sta per un altro oggetto o lo raffigura;
Pu esistere un manipolatore automatico di simboli;

6.5. I PRIMI PROGRAMMI DI INTELLIGENZA ARTIFICIALE

6.5

93

I primi programmi di Intelligenza Artificiale

A partire dalla met degli anni 60 si assistette ad una rivoluzione nella generazione dei computer. Con queste nuove macchine, si rese possibile anche un
salto qualitativo dei programmi ed una ricerca dellA.I. applicata soprattutto
alla comprensione del linguaggio umano, al calcolo simbolico e alla rappresentazione semantica. Samuel, nel 1963, scrisse un programma in grado di
giocare a dama e di utilizzare lesperienza acquisita durante le partite per
migliorare le proprie prestazioni successive.
Uno dei primi programmi di A.I. ad avere successo fu Eliza inventato
nel 1964 da Joseph Weizembaum, a quel tempo ricercatore del MIT e poi
divenuto un prestigioso docente. Eliza era in grado di sostenere una conversazione in inglese su copioni prestabiliti di diverso argomento. Weizembaum
fece assumere ad Eliza il ruolo di psicanalista, in modo talmente realistico
da far credere agli utilizzatori di essere davanti ad un vero dottore. Uno
psichiatra, Kenneth Colby, realizz poco dopo un programma simile ad Eliza
che chiam Parry, in grado di simulare il comportamento linguistico di un
paranoico. Furono persino organizzate sedute di dialogo tra Parry ed Eliza,
a detta di molti psichiatri estremamente realistiche.

6.6

Artificial Life

Unevoluzione negli studi dellA.I. rappresentata dall A.L., acronimo di


Artificial Life (detta anche Alife, cio Vita Artificiale). Il suo obiettivo
consiste nel simulare il comportamento di organismi viventi ed ecosistemi
reali per mezzo del computer. Questa disciplina, a cavallo tra biologia, genetica ed informatica, risale al 1987, in occasione di una conferenza tenutasi
allOppenheimer Study Center di Los Alamos in cui il biologo Christopher
Langton riun circa 160 studiosi provenienti da diverse aree scientifiche. Se
lA.I. studia i principi e la natura dellintelligenza cercando di riprodurne
alcune caratteristiche mediante i computer, la vita artificiale cerca di rispondere a domande sulla vita e i processi che caratterizzano un organismo vivente
e di capire come si siano svolti i processi evolutivi che da forme di vita semplici hanno portato allevoluzione di forme di vita sempre pi complesse ed
intelligenti, mediante simulazioni realizzate al computer. Allo stato attuale,
le ricerche sono rivolte allo studio di processi biologici elementari (assimilabili
a quelli dei virus o degli esseri monocellulari) o alla simulazione del comportamento di esseri pi complessi, come gli insetti. Come per lA.I., anche
nellA.L. esistono due correnti di pensiero: la prima, detta forte ritiene che

94

CAPITOLO 6. INTELLIGENZA ARTIFICIALE

sia possibile creare esseri viventi artificiali al pari di quelli organici, mentre
la seconda, detta debole sostiene che le forme di vita artificiali non possono
e non potranno mai dirsi viventi del tutto.

Capitolo 7
Presente e futuro
Come fa il cervello ad elaborare informazioni? Quali sono i principi
computazionali che gli permettono di modellare, predire, percepire e
interagire con il mondo esterno? Come fa il cervello a implementare questi
principi? Per rispondere a queste domande fondamentali, abbiamo bisogno
di scale di dati, ma dati e correlazioni tra gli insiemi di dati non sono
abbastanza. Quello che abbiamo bisogno di identificare sono meccanismi
causali: per esempio, dobbiamo capire come fanno i neurotrasmettitori e gli
ormoni a modulare lattivit neurale, la trasmissione sinaptica e la
plasticit, o, ad un livello superiore, come fa il cervello a "legare"
linformazione proveniente da diverse aree visuali per formare una visione
unificata del mondo.
Henry Markram, Sette sfide per le neuroscienze, 2013

7.1

Introduzione

Nei paragrafi che seguono, vengono proposti alcuni dei pi grandi progetti
gi in parte realizzati o di realizzazione futura che riguardano lo studio e la
simulazione della complessit cerebrale. Tra questi, ci sono alcuni progetti
che riguardano le reti neurali artificiali e lIntelligenza Artificiale, altri che
non hanno per il momento alcuna valenza applicativa ma si propongono di
simulare il funzionamento di un cervello vero. Secondo la comunit scientifica, siamo solo allinizio di una nuova era che vedr coinvolte sempre di pi
linformatica, la cibernetica e la biologia in un continuo e reciproco scambio di conoscenze sullorganizzazione e la complessit cerebrale. In qualche
istituto di ricerca, tra laltro, si sta gi ipotizzando di costruire il cervello biologico artificiale, composto da neuroni biologici ed artificiali addestrati per
compiere particolari funzioni, tipo quelle perdute dal cervello di un paziente
95

96

CAPITOLO 7. PRESENTE E FUTURO

malato o affetto da disturbi. Questo fa sperare in una rivoluzione notevole


anche in campo medico. Di certo, questa rivoluzione non potr fare a meno
dellinformatica che fornisce il substrato fondamentale per costruire le reti
neurali artificiali e nemmeno della biologia, che conserva i segreti della lunga
evoluzione degli organismi viventi.

7.2

Il computer diagnosta

una gi una realt il computer diagnosta prodotto dalla collaborazione tra lIBM e il Memorial Sloan-Kettering Cancer Centre ma nel prossimo
futuro sar un valido aiutante per le quipe mediche di tutto il mondo. Si
tratta di una rete neurale artificiale capace di consigliare i medici su quali
siano le migliori terapie da seguire nella cura dei tumori del seno, della prostata e dei polmoni. Questo computer ha la possibilit di accedere ad oltre
600.000 articoli medici, 40 riviste specializzate e decine di migliaia di cartelle
cliniche: in 3 secondi accede a 200 milioni di documenti. Ha la capacit di
capire il linguaggio dei vari documenti e di aggiornare le sue conoscenze. Al
Memorial Sloan-Kettering Cancer Centre, i primari del reparto di Oncologia
non ne possono pi fare a meno e lo consultano quotidianamente come se
fosse un loro collega umano.

7.3

Blue Brain

Il Blue Brain un progetto avviato nel maggio del 2005 dallIBM con la
collaborazione di Henry Markram e l cole Polytechnique di Losanna.
un progetto volto alla simulazione di un
cervello vero, non tanto per creare un prototipo di Intelligenza Artificiale, ma per analizzare a fondo la struttura del cervello e delle sue
connessioni. Il progetto iniziale era di simulare una colonna neocorticale che la pi piccola unit funzionale della neocorteccia. Questa
colonna, di lunghezza 2mm e diametro 0.5mm
contiene allincirca 60.000 neuroni in un essere Figura 7.1: Blue Brain
umano. La simulazione si basa sulla corteccia Project
di un topo che per pi semplice e ne contiene 10.000 con 108 sinapsi. Il
progetto si avvale del supercomputer Blue Gene che utilizza il programma
Neocortical Simulator basato su MPI per la trasmissione dei messaggi. Il
simulatore non crea una semplice rete neurale artificiale ma simula in mo-

7.4. HUMAN BRAIN PROJECT

97

do realistico le funzioni biologiche del neurone. Si stima che per creare la


simulazione di una colonna neurale servano due anni. Questi risultati verranno confrontati con i modelli biologici per poter conoscere in modo pi
approfondito il funzionamento e la struttura del cervello.

7.4

Human Brain Project

Il "Progetto Cervello Umano" uno dei pi importanti progetti-faro selezionati dallUnione Europea.
un progetto del campo delle neuroscienze che si propone di realizzare, attraverso un supercomputer, una simulazione del funzionamento completo del cervello umano, coinvolgendo tutti i 1010 neuroni che in media compongono il cervello
di un uomo adulto. Questo progetto beneficer di un sostegno finanziario del vaFigura 7.2: Henry Markram
lore di un miliardo di euro per dieci anni,
fino al 2023. Il direttore del progetto Henry Markram dell cole Polytechnique Fdrale di Losanna, in collaborazione con pi di 90 universit e scuole
di alta formazione provenienti da 22 paesi diversi. Questo progetto non ha
un solo obiettivo: innanzitutto, potr dare il via a progetti di Intelligenza
Artificiale, ma soprattutto permetter lo sviluppo di un nuovo approccio alla
fisiologia e patologia del sistema nervoso. Si potranno, quindi, trovare delle
terapie innovative e pi efficaci per la cura di malattie neuropsichiatriche e
i danni dovuti alla droga o allalcol, di cui sono affetti ben due miliardi di
individui nel mondo. Si tratta della continuazione del progetto Blue Brain

Figura 7.3: Human Brain Project

98

CAPITOLO 7. PRESENTE E FUTURO

avviato nel 2005 da IBM con la collaborazione sempre del prof. Markram e
dell cole Polytechnique Fdrale di Losanna.

7.5

Il cervello ibrido dellIIT

LIstituto Italiano di Tecnologia di Genova allavanguardia nella progettazione di robot intelligenti.


Uno dei progetti pi ambiziosi in fase di
continuo perfezionamento il piccolo ICab,
un robot che ha le sembianze di un bambino,
che riesce ad imparare da solo, scomponendo
un compito assegnatogli in tante piccole azioni elementari gi imparate. Un altro progetto
degno di nota la creazione di un cervello ibrido: si tratta di un cervello biologico artificiale,
Figura 7.4: ICab
composto sia da neuroni veri che da elettrodi
che li mettono in comunicazione elettrica con un piccolo robot. Al momento,
si sta lavorando su un piccolo strato sottile di neuroni fatti crescere su uno
speciale substrato che ne favorisce le connessioni. Su questo vetrino ci sono
allincirca 60.000 neuroni immersi in una soluzione nutriente. In questa piastrina, in modo opportuno, ci sono dei collegamenti elettrici che collegano i
neuroni ad un piccolo robot che si muove su un tavolo su cui ci sono degli
ostacoli. Ogni volta che il robot, muovendosi, urta un ostacolo, una debole
scarica elettrica viene trasmessa ai neuroni. La scarica non viene gradita e
cos imparano a non commettere pi lo stesso errore inviando segnali elettrici al robot. Lapplicazione diretta rivolta al mondo della medicina: se
questo esperimento funzioner, si potranno costruire delle neuroprotesi che
andranno impiantate nel cervello di persone malate. Basta impiantare un
chip e la parte danneggiata torna funzionante. Ovviamente questo progetto
rivoluzionario ma a detta degli stessi progettatori, ha dei grossi limiti: infatti si tratta di una piastrina in due dimensioni mentre il nostro cervello
a tre dimensioni. In futuro si dovranno studiare molto meglio larchitettura
spaziale delle reti neurali del cervello.

7.6

Il progetto K computer

Un team di scienziati giapponesi e tedeschi hanno messo a punto una simulazione record del funzionamento del cervello: sono riusciti a riprodurre un
secondo di attivit cerebrale, dopo 40 minuti di calcoli del computer. Questa

7.7. CONNETTOMA

99

simulazione che ha richiesto 40 minuti di lavoro copre solo l1% della rete neurale del cervello umano. Questo progetto realizzato dal gruppo giapponese
RIKEN, lOkinawa Institute of Science and Technology Graduate University
e il Forschunggszentrum Julich, che un importante centro di ricerca tedesco.
Il computer usato in questa simulazione il K-computer della RIKEN che
si trova nella citt di Kobe, in Giappone, conosciuto per la sua eccezionale
precisione e potenza di calcolo. ritenuto uno dei computer pi potenti per
gli esperimenti volti alla simulazione del cervello umano.

7.7

Connettoma

Nellestate del 2000, fu completato il Progetto Genoma Umano, che negli


anni successivi stato perfezionato pi volte. Si trattava di un progetto internazionale il cui obiettivo principale era quello di determinare la sequenza
delle coppie di basi azotate che formano il DNA e di identificare e mappare
i geni del genoma umano, sia dal punto di vista strutturale che funzionale. Sullonda di questo successo che ha dimostrato che la scienza oggi pu
spingersi molto lontano, nel 2005 Olaf Sporns e Patric Hagmann, indipendentemente, introdussero il termine connettoma per riferirsi ad una mappa
di tutte le connessioni neurali nel cervello. La mappatura delle connessioni
di un cervello di un uomo adulto sano permetterebbe ai neuroscienziati di
capire finalmente come funziona il cervello e come la sua organizzazione sia
correlata alle funzioni che capace di svolgere.

Figura 7.5: Human Connectome

100

CAPITOLO 7. PRESENTE E FUTURO

Capitolo 8
Progetto museale
8.1

Introduzione

Come discusso nellintroduzione, uno degli obiettivi di questa tesi far conoscere al grande pubblico le problematiche, gli studi e i grandi progetti legati
al mondo delle Neuroscienze. Gli ambienti pi adatti per proporre le tematiche trattate in questo elaborato sono senza dubbio i musei della scienza e
della tecnologia, come il Muse, Museo delle Scienze Trentino, ad esempio, oppure tutte le strutture con percorsi didattici rivolti alle scuole; in provincia,
ad esempio, il Museo Civico di Rovereto. Questi istituti sono naturalmente
interessati a proporre ai visitatori nuovi spunti e curiosit. Qui di seguito
ho creato un progetto per trasformare il mio elaborato in un viaggio nelle
neuroscienze da proporre ai visitatori del di questa struttura. Si tratta di una
proposta di esposizione temporanea di alcuni pannelli elettronici su cui far
scorrere delle immagini, dei piccoli estratti di video e delle animazioni grafiche per raccontare al visitatore le fasi salienti di questa tesi. Sar concesso
allo spettatore di viaggiare liberamente nel tempo e nello spazio, dallantichit al futuro delle neuroscienze, dalla singola cellula cerebrale ai grandissimi
computer che simuleranno il funzionamento di un vero cervello, munito di
unimmaginaria macchina fotografica con cui potr immortalare le immagini
pi significative. Ad ogni momento storico e ad ogni livello di approccio al
cervello, gli racconto gli esperimenti salienti e il tipo di analisi matematica
condotto. Questa esposizione diventa dunque anche un viaggio nella biologia,
in particolare nella fisiologia del cervello, ma non solo: viaggiando nello spazio, il visitatore pu vedere da vicino le reti neurali artificiali e i dispositivi
di AI, quindi potr viaggiare nella cibernetica e nella matematica applicata
alle neuroscienze.
101

102

8.2

CAPITOLO 8. PROGETTO MUSEALE

Progetto

Immagino di installare 6 pannelli in unarea del museo in modo che lo spettatore si possa spostare e nel frattempo ammirare il museo e le sue installazioni.
I temi trattati da ciascun pannello sono:
1. La storia delle neuroscienze: le fasi salienti;
2. Lesperimento di Hodgkin e Huxley;
3. Il cervello come sistema complesso: le reti neurali;
4. Le reti neurali artificiali: il percettrone;
5. Il sogno di Alan Turing;
6. Connettoma e lo Human Brain Project.

8.2.1

La storia in breve

Si tratta di un pannello in cui scorra una breve animazione ricca di immagini,


che racconti le tappe fondamentali delle neuroscienze, dagli Egizi fino alla
tanto singolare disputa tra Camillo Golgi e Santiago y Cayal il giorno della
consegna del Nobel nel 1906. Lanimazione provveder a spiegare al visitatore
quali sono state le scoperte e gli esperimenti pi importanti e pi decisivi,
come quelli di Ippocrate, Vesalio, Cartesio, lapporto di Gall, Young, e tutti
gli scienziati che hanno dato un loro importante contributo nel periodo della
disputa tra localizzazionisti e distribuzionisti.

8.2.2

Lesperimento di Hodgkin e Huxley

Dopo unanimazione che descrive in pochi minuti lanatomia del cervello,


con un effetto speciale immagino di rimpicciolire ciascun visitatore e di farlo
viaggiare allinterno del neurone. Gli fornisco anche una speciale macchina
fotografica con cui pu immortalare vari organelli e strutture speciali della
cellula nervosa. Mostrandogli dei particolari dispositivi usati dai fisiologi,
quali il voltage-clamp e il patch-clamp, lo accompagno negli esperimenti che
hanno portato Hodgkin e Huxley a formulare il loro famoso modello. Prima di
allontanarci da questo secondo pannello, mi soffermo per far riflettere il visitatore su una questione: al livello cellulare, si fa ricorso allanalisi matematica
per descrivere in modo quantitativo lattivazione del neurone.

8.2. PROGETTO

8.2.3

103

Il cervello come sistema complesso

In questo pannello, con unanimazione e un effetto speciale ingrandisco linquadratura: ora pu vedere tutta la corteccia cerebrale e le zone che si attivano. Mostrando delle immagini della rivolta in Brasile nel 1984, faccio
comprendere al visitatore il motivo per il quale non basta considerare i neuroni ed il livello cellulare ma si debba considerare popolazioni, ovvero reti,
di neuroni. A questo livello, gli presento brevemente i concetti fondamentali
della teoria dei grafi e la teoria dellinformazione. Con una particolare simulazione, generando un piccolo grafo su cui avviene una particolare dinamica,
gli illustro il concetto di complessit neurale e lo convinco del legame tra
complessit e topologia del grafo.

8.2.4

Le reti neurali artificiali: il percettrone

Ora linquadratura si apre sempre di pi e non vengono considerate solo


le reti cerebrali biologiche ma anche quelle artificiali. Unanimazione ripercorre brevemente la storia delle reti neurali e si sofferma sul funzionamento
dellANN di McCulloch e Pitts e del percettrone di Rosenblatt. Spiego al
visitatore come, a questo livello, sia fondamentale la logica matematica.

8.2.5

Il sogno di Alan Turing

Ora linquadratura rivolta al cielo perch in questo pannello si parler


di un sogno: la macchina universale di Turing. La storia della macchina
universale viene raccontata dallinizio, dal problema della decisione di Hilbert
passando per i teoremi di incompletezza di Gdel, spiegando levoluzione
della macchina universale con le stesse parole che Turing ci ha lasciato. In
questo caso, illustro allo spettatore come nel caso di Turing si sia partiti da
un problema formale di matematica per arrivare alla biologia, in particolare
alla fisiologia del cervello.

8.2.6

Connettoma e lo Human Brain Project

Lultimo pannello si occupa dei due progetti attualmente in fase di realizzazione che cercano di analizzare e di mettere in pratica la struttura topologica
delle reti neurali biologiche. In questo caso, lanalisi dellarchitettura dei
grafi il punto cruciale. Lultimo pannello il momento nel viaggio nel futuro
delle neuroscienze e della nostra vita. Con estratti di film di fantascienza,
spiego al visitatore se davvero un giorno la Terra sar popolata di robot
capaci di pensare come luomo.

104

CAPITOLO 8. PROGETTO MUSEALE

Appendice A
Richiami di Teoria
dellInformazione
Riprendiamo alcuni concetti di Teoria dellInformazione necessari per la nostra trattazione.

Definizione 1 Sia (, A, P) uno spazio di probabilit ove:


definisce lo spazio campionario, ovvero linsieme di tutti gli esiti possibili
dellesperimento aleatorio;
A definisce una collezione di sottoinsiemi di (formalmente una -algebra)
che contiene tutti gli eventi a cui possibile assegnare una probabilit.
A chiusa rispetto al complementare e ad unioni numerabili;
P una misura di probabilit su (, (A)) ossia una funzione che assegna
ad ogni elemento A (A) un numero P [0, 1]. Le propriet di P
sono:
1. P() = 1;
S
P
2. P(
i=1 Ai ) =
i=1 P(Ai );
Supponiamo che #S = n e B(S) = P e consideriamo un evento E B(S).
La misura di informazione contenuta in E, I(E), la variabile aleatoria
I(E) = log2 (P (E)) E
I(E) una misura della sorpresa veicolata dall evento E, intendendo per
evento sorprendente un evento inatteso. evidente, allora, che il valore
assunto da I(E) tanto maggiore quanto meno probabile levento. Non
105

106

APPENDICE A. RICHIAMI DI TEORIA DELLINFORMAZIONE

a caso, la funzione che esprime la misura di informazione una funzione


descrescente che tende a + quando la probabilit dellevento E tende a 0.
La misura di informazione gode delle seguenti propriet:
1. Ii 0 per 0 Pi 1;
2. Ii 0 per Pi 1;
3. Ii > Ij per Pi < Pj .
Dora in avanti, saremo interessati agli eventi (X = x1 ), (X = x2 ), ..., (X =
xn ) che sono i valori che pu assumere una particolare variabile aleatoria
X definita nellinsieme discreto {x1 , x2 , ..., xn } e con legge, rispettivamente
{p1 , p2 ..., pn }.
Definizione 2 Consideriamo un evento X definito in uno spazio di probabilit discreto che pu assumere uno tra questi valori {x1 , x2 , ..., xn } con probabilit rispettivamente {p1 , p2 , ...pn }. Si definisce entropia il valor medio
delle misure di informazione:
H(X) = E(I(X)) =

n
X

pj log2 (pj ).

j=1

Lentropia una misura della quantit di incertezza legata al verificarsi dell


evento X. Gode delle seguenti propriet.
Teorema 1 Sia X una variabile casuale discreta. Allora:
1. H(X) 0 e H(X) = 0 se e solo se X assume uno dei suoi valori con
certezza;
2. H(X) log(n) con luguaglianza se e solo se X uniformemente
distribuita.
Consideriamo il caso continuo. Supponiamo che X sia una variabile aleatoria assolutamente continua con funzione di densit f (x). Lentropia allora
definita cos:
Z
1
)
H(X) = log(f (x))f (x)dx) = E log(
f (x)
R
sotto la condizione che lintegrale esista.

A.1. MUTUA INFORMAZIONE

107

Lentropia nel caso Gaussiano


Consideriamo il caso di una variabile aleatoria Gaussiana X N (, 2 ) con
densit di probabilit:
fX (x) = p

1
2
2X

(x X )2
.
2
2X

f (x)
= (log2 e)(ln f (x)) per la formula del cambiaIn generale log2 f (x) = lnln2
mento della base e la formula dello scambio. Ora posso calcolare lentropia
di X:
Z +
h(X) =
fX (x) log2 fX (x)dx =

Z +
2
2
1
1
(x X )
(x X )
p
p
=
e
log
(
e
)dx =
2
2
2
2
2
2X
2X
2X
2X

Z +
Z +
2
1
1
1
1
(x X )
p
p
= log2 ( p
)
e

log2 ( p
)dx =
2
2
2
2
2
2X
2X
2X
2X
2X

Z +
Z
log2 e +
1
)
fX (x)dx +
(x X )2 fX (x)dx =
log2 ( p
2
2
2X
2X
1
1
2
= log2 2X
+ log2 e =
2
2
1
2
= log2 2eX
2

Nel caso multidimensionale, lespressione per lentropia del vettore normale Gaussiano :
H(X) =

1
ln[(2e)n |cov(X)|].
2

Lentropia, dunque, dipende solo dalla varianza non dalla media.

A.1

Mutua Informazione

Consideriamo un sistema X composto da n elementi e una sua bipartizione


in uno dei suoi j esimi sottoinsiemi composti da k elementi sul totale di
n, Xjk e dal suo complementare X Xjk . La mutua informazione M I tra
Xjk e X Xjk definita cos:
M I(Xjk ; X Xjk ) = H(Xjk ) + H(X Xjk ) H(X)

108

APPENDICE A. RICHIAMI DI TEORIA DELLINFORMAZIONE

dove H(Xjk ) e H(X Xjk ) sono rispettivamente le entropie di Xjk e X Xjk ,


considerate indipendentemente, e H(X) lentropia del sistema considerato come un intero. La mutua informazione una misura della deviazione
dallindipendenza dellinsieme Xjk rispetto ad X. Gode di alcune propriet:
1. Positivit: M I = 0 se H(Xjk ) e H(X Xjk ) sono statisticamente
indipendenti, altrimenti M I > 0;
2. Simmetria: M I(Xjk ; X Xjk ) = M I(X Xjk ; Xjk );
3. Invarianza per cambiamento di variabili;

Appendice B
Lalgoritmo della
retropropagazione dellerrore
Ununit nello strato di output determina la sua attivit nel modo seguente,
seguendo una procedura a due passi:
Calcola linput xj tenendo conto di tutti i pesi, secondo la formula
seguente:
xj =

yi Wij

ove yi il livello dellattivit della jesima unit nello stato precedente


e Wij il peso della connessione tra lunit iesima e quella j esima.
Poi, lunit calcola lattivit yj usando qualche funzione dellinput dei
pesi totali. In genere, si ua la funzione sigmoidale:
yj =

1
1 + exj

Una volta che le attivit di tutte le unit di output vengono determinate, la


rete calcola lerrore E definito cos:
E=

1X
(yi di )2
2 i

109

110APPENDICE B. LALGORITMO DELLA RETROPROPAGAZIONE DELLERRORE


ove yi il livello di attivit della j-esima unit nello strato superiore e dj
loutput desiderato della j-esima unit. Lalgoritmo della retropropagazione
dellerrore consiste di quattro passi:
1. Calcola quanto velocemente lerrore cambia quando lattivit di ununit di output cambia. Questa derivata dellerrore (EA) la differenza
tra il valore attuale e lattivit desiderata:
E
= y j dj
EAj =
yj
2. Calcola quanto velocemente lerrore cambia quando linput totale ricevuto da ununit di input cambia. La quantit EI la risposta dallo
step 1 moltiplicato per la velocit alla quale loutput di ununit cambia
quando linput totale cambia.
X E
X
E
yj
EIj =
=

=
EAj yj (1 yj )
xj
yj
xj
i
j

3. Calcola quanto velocemente lerrore cambia quando linput della connessione su ununit di input cambia. La quantit EW la risposta dallo step 2 moltiplicato per il livello dellattivit ununit che la
connessione emana.
X E
X
xj
E
=

=
EIj yj
EWij =
Wij
x
W
j
ij
i
j

4. Calcola quanto velocemente lerrore cambia quando lattivit di ununit nello strato precedente cambia. Questo passo cruciale permette
alla retro-propagazione di essere applicata alle reti multistrato. Quando unattivit di ununit dello strato precedente cambia, influenza le
attivit di tutte le unit di output alle quali connessa. Allora per calcolare leffetto totale sullerrore, si aggiungono tutti questi effetti sulle
unit di output separatamente. Ma ciascun effetto facile da calcolare:
la risposta del secondo step moltiplicata per il peso della connessione
a questa unit di output.
X E
E
xj X
EAj =
=

=
EIj Wij
yj
xj
yj
i
j

111
Usando i passi 2 e 4, possiamo convertire EA di uno strato di unit in EA
dello strato precedente. Questa procedura si pu ripetere per ottenere le EA
per tutti gli strati precedenti desiderati. Uno volta che conosciuta la EA di
ununit, si possono usare i passi 2 e 3 per calcolare EW nelle sue connessioni
successive.

112APPENDICE B. LALGORITMO DELLA RETROPROPAGAZIONE DELLERRORE

Bibliografia
[1] David Applebaum. Probability and Information. An integrated approach.
Cambridge University Press.
[2] G.Tononi, O.Sporns, G. M. Edelman, A measure for brain complexity:
relating functional segregation and integration in the nervous system The
Neuroscience Institute, 1994.
[3] G.Tononi, O.Sporns, G. M. Edelman, A complexity measure for selective
matching of signals by the brain The Neuroscience Institute, 1995.
[4] G.Tononi, O.Sporns, G. M. Edelman, Connectivity and complexity: the
relationship between neuroanatomy and brain dynamics The Neuroscience
Institute, 2000.
[5] G.M. Edelman Naturalizing consciousness:
Neurosciences Institute, 2003.

a theoretical framework

[6] M. De Lucia, M. Bottaccio, M. Montuori, L. Pietronero. A topological


approach to neural complexity. 2004.
[7] A.L. Hodgkin, A.F. Huxley A quantitative description of membrane
current and its application to conduction and excitation in nerve. 1952.
[8] C. Meunier, I. Segev. Playing the Devils advocate: is the Hodgkin-Huxley
model useful?. 2002.
[9] Mark F. Bear, Barry W. Connors, Michael A. Paradiso. Neuroscienze.
Esplorando il cervello. Masson, 2001.
[10] K.-L. Du, M.N.S. Swamy. Neural Networks in a Softcomputing
Framework. Springer-Verlag, 2006.
[11] Nils J.Nilsson. Artificial Intelligence:
Kauffmann Publishers, Inc., 1998.
113

A New Synthesis. Morgan

114

BIBLIOGRAFIA

[12] Edoardo Boncinelli. La vita della nostra mente. Editori Laterza, 2011.
[13] Miguel Nicolelis. Il cervello universale: la nuova frontiera delle
connessioni tra uomini e computer. Bollati Boringhieri, 2011.
[14] George Dyson. La cattedrale di Turing: le origini delluniverso digitale.
Codice edizioni, Torino, 2012.
[15] Piero Angela. Da zero a tre anni. Mondadori, 2000.
[16] Christos Stergiou, Dimitrios Siganos. Neural Networks Imperial College
London
[17] Stefano Cagnoni, Giuseppe Coppini, Riccaro Poli, Guido Valli, Rossana Fargnoli, Raffaella De Dominicis. Reti neurali artificiali per il
riconoscimento di lesioni. 1992.

Potrebbero piacerti anche