DIPARTIMENTO DI MATEMATICA
Corso di Laurea Specialistica in Matematica
Tesi finale
Relatore:
Chiar.mo Prof.
BONACCORSI
STEFANO
Presentata da:
BRESSAN STEFANIA
Mt. 136071
ii
iii
A mamma e pap,
per il loro infinito amore
iv
Ringraziamenti
vi
Indice
1 Presentazione
1.1 Nota introduttiva . . . . . . . . . . . . . . . . . . . . . . . . .
2 Storia delle neuroscienze
2.1 Introduzione . . . . . . . . . . .
2.2 Le origini delle neuroscienze . .
2.3 Il periodo greco . . . . . . . . .
2.4 Il periodo romano . . . . . . . .
2.5 Dal Medioevo al Seicento . . . .
2.6 Il Settecento . . . . . . . . . . .
2.7 LOttocento e la grande disputa
2.8 Dal Novecento ai giorni nostri .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
3 Il cervello e i neuroni
3.1 Lunit funzionale del cervello . . . . .
3.2 La fisiologia del cervello . . . . . . . .
3.3 La fisiologia dei neuroni . . . . . . . .
3.3.1 Introduzione . . . . . . . . . . .
3.3.2 Anatomia . . . . . . . . . . . .
3.3.3 La natura elettrica del segnale .
3.3.4 Il modello di Hodgkin e Huxley
3.4 La dualit dellorganizzazione cerebrale
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1
2
.
.
.
.
.
.
.
.
5
5
6
7
8
8
9
11
17
.
.
.
.
.
.
.
.
21
21
22
25
25
26
27
29
33
.
.
.
.
.
.
.
37
37
37
43
57
59
60
61
viii
INDICE
4.8
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
65
65
66
70
73
74
74
75
76
78
78
78
79
80
81
81
82
6 Intelligenza Artificiale
6.1 Introduzione . . . . . . . . . . . . . . . . . . . .
6.2 Cenni storici . . . . . . . . . . . . . . . . . . . .
6.3 La macchina universale di Turing . . . . . . . .
6.3.1 Il problema della decisione di Hilbert e
incompletezza di Gdel . . . . . . . . . .
6.3.2 La risposta di Turing . . . . . . . . . . .
6.4 Fondamenti teorici dellAI . . . . . . . . . . . .
6.5 I primi programmi di Intelligenza Artificiale . .
6.6 Artificial Life . . . . . . . . . . . . . . . . . . .
83
. . . . . . . . 83
. . . . . . . . 84
. . . . . . . . 87
i teoremi di
. . . . . . . . 87
. . . . . . . . 89
. . . . . . . . 92
. . . . . . . . 93
. . . . . . . . 93
7 Presente e futuro
7.1 Introduzione . . . . . . .
7.2 Il computer diagnosta . .
7.3 Blue Brain . . . . . . . .
7.4 Human Brain Project . .
7.5 Il cervello ibrido dellIIT
7.6 Il progetto K computer .
7.7 Connettoma . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
95
95
96
96
97
98
98
99
INDICE
8 Progetto museale
8.1 Introduzione . . . . . . . . . . . . . . . . . . . .
8.2 Progetto . . . . . . . . . . . . . . . . . . . . . .
8.2.1 La storia in breve . . . . . . . . . . . . .
8.2.2 Lesperimento di Hodgkin e Huxley . . .
8.2.3 Il cervello come sistema complesso . . . .
8.2.4 Le reti neurali artificiali: il percettrone .
8.2.5 Il sogno di Alan Turing . . . . . . . . .
8.2.6 Connettoma e lo Human Brain Project .
ix
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
101
. 101
. 102
. 102
. 102
. 103
. 103
. 103
. 103
109
Bibliografia
113
INDICE
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
7
8
9
9
10
10
12
13
14
14
14
15
16
16
17
18
19
19
20
20
20
3.1
3.2
3.3
3.4
3.5
3.6
3.7
Il cervello . . . . . .
Anatomia del cervello
Anatomia del cervello
Schema di neurone .
Al microscopio . . .
Hodgkin e Huxley . .
Binding Problem . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
23
24
25
26
27
32
35
4.1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
xi
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
xii
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
51
52
52
53
53
5.1
5.2
5.3
5.4
5.5
5.6
5.7
5.8
5.9
5.10
6.1
6.2
6.3
6.4
7.1
7.2
7.3
7.4
7.5
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
66
67
67
68
71
72
75
78
78
79
. . . . . .
. . . . . .
. . . . . .
di Turing
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
87
88
88
90
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
96
97
97
98
99
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Capitolo 1
Presentazione
La comunit scientifica unanime nel considerare lo studio del cervello la
sfida pi importante del ventunesimo secolo, pi importante perfino delle ricerche riguardanti lorigine della vita sulla Terra o lesistenza di altre forme di
vita nelluniverso e di pianeti abitabili, argomenti questultimi, che da sempre
affascinano luomo. Non a caso, lanno scorso, la Commissione Europea ha
deciso che uno dei due vincitori del bando FET, Future and Emerging Technologies, fosse lo Human Brain Project che ricever un finanziamento di ben
un miliardo di euro e che impegner ricercatori provenienti da almeno quindici paesi membri dell Unione Europea e quasi duecento istituti di ricerca.
Un sacrificio notevole, se si pensa alla crisi economica che ha messo in ginocchio le economie di gran parte dei paesi industrializzati, in particolare degli
stati europei. Eppure tanti motivi spingono le istituzioni ad investire nello
studio del cervello, in particolare nella sua struttura e nel suo funzionamento.
Uno di questi motivi dovuto ad un aspetto puramente scientifico: propria della natura umana la curiosit di sapere come avvengono precisamente
certe dinamiche biochimiche, descrivendone dettagliatamente levoluzione e
cercando di conoscerne le cause. In questo contesto, rientra uno dei lavori
pi importanti della storia delle neuroscienze, realizzato dai fisiologi statunitensi Hodgkin e Huxley, insignito del Premio Nobel nel 1963, che ha chiarito
il funzionamento dei neuroni descrivendolo, per la prima volta tra laltro,
in termini matematici. Se la moderna ricerca in neuroscienze costosa, il
costo dellignoranza sul cervello molto maggiore. Limpatto dei disturbi sul
sistema nervoso sulla nostra societ devastante: il morbo di Alzheimer, caratterizzato da una degenerazione progressiva di specifici neuroni del cervello,
e il morbo di Parkinson, grave malattia del sistema nervoso che determina
un grave deterioramento del movimento volontario, colpiscono attualmente
500.000 americani. Il costo annuale per la cura delle persone affette da demenza approssimativamente di 90 miliardi di dollari, per non parlare del
1
CAPITOLO 1. PRESENTAZIONE
costo in vite umane, visto che per queste malattie non ci sono cure n qualche tipo di prevenzione. E tutto questo dovuto alle poche conoscenze sul
funzionamento del cervello. Unaltra grande spinta proviene dallingegneria
e dalla robotica. Viviamo nellepoca del boom dellinformatica che ha reso
la nostra vita pi comoda e pi sicura, per se per molti aspetti il computer
dotato di enormi potenzialit, per certi altri ha dei limiti che cominciano
ad andare stretti, soprattutto se paragoniamo il computer con il cervello. Il
computer, contrariamente al cervello, non una macchina intelligente capace
di risolvere un problema per il quale non stato programmato: un computer
non capace di prendere delle decisioni. Il cervello dei vertebrati superiori,
invece, capace di imparare e con lintuizione e lingegno, a risolvere i problemi pi disparati. LIntelligenza Artificiale e la Cibernetica dalla met del
secolo scorso si propongono di costruire macchine che riescano ad imitare,
seppur in minima parte, il comportamento complesso del cervello. Da quando McCulloch e Pitts proposero il primo modello di rete neurale artificiale o
da quando il genio di Alan Turing elabor il progetto di Macchina Universale, molta strada stata fatta, tant vero che oggi le reti neurali artificiali
sono impiegate diffusamente nel mondo dellindustria e della tecnologia. I
neuroscienziati sono convinti che, nonostante tutto, siamo ancora agli inizi
di una rivoluzione che sconvolger la nostra societ e il nostro modo di vivere
ma sono molto fiduciosi che tra un decennio riusciremo ad imitare il comportamento di un vero cervello umano e tra non molto riusciremo a realizzare
quei progetti di Intelligenza Artificiale fino a qualche tempo fa immaginabili
solo nei film o nei romanzi di fantascienza.
1.1
Nota introduttiva
Se il mondo scientifico e tecnologico e le istituzioni di tutto il mondo stanno impiegando molte risorse ed energie a favore dello sviluppo delle neuroscienze, sia nellambito scolastico che in quello accademico, lo studio delle
neuroscienze non affatto popolare. Nelle scuole superiori, le neuroscienze
vengono trattate solo in occasione dello studio del sistema nervoso che rientra
nel programma di biologia; nelle universit, purtroppo, oltre ai corsi di medicina, di scienze cognitive, di psicologia e di cibernetica, le neuroscienze non
trovano ulteriore spazio, nonostante siano una grande interdisciplina, suddivisa in una quindicina di branche diverse, dalla matematica allinformatica,
dallingegneria alla filosofia, passando per la linguistica addirittura. Lintento di questo elaborato, allora, di estendere il lavoro dei neuroscienziati e, in
particolare, dei matematici specializzati in neuroscienze, a tutti gli studiosi
di scienze ma non solo, anche al grande pubblico, soprattutto ai curiosi e
CAPITOLO 1. PRESENTAZIONE
Capitolo 2
Storia delle neuroscienze
Gli uomini dovrebbero sapere che da nientaltro, se non dal cervello,
derivano la gioia, i piaceri, il riso e gli sport, i dispiaceri e i dolori,
langoscia, lo sconforto e il lamento. Ed mediante il cervello, soprattutto,
che noi acquisiamo saggezza e conoscenza, e che possiamo vedere e sentire e
riconoscere ci che illecito e ci che giusto, ci che cattivo e ci che
buono, quello che dolce e quello che insipido... Ed sempre a causa
dello stesso organo che noi diventiamo pazzi e deliranti, e che ci viene
paura e ci assale il panico... Tutte queste cose dobbiamo sopportare da parte
del nostro cervello quando questo non in salute... In questo senso, sono
del parere che sia il cervello a esercitare sulluomo il pi grande potere.
Ippocrate, Sul male sacro (IV secolo a.C.)
2.1
Introduzione
2.2
mentre il resto del corpo veniva attentamente preservato per la vita dopo la
morte.
2.3
Il periodo greco
Tre studiosi hanno animato la scena delle neuroscienze nel periodo greco.
Ippocrate (460-379 a.C.), il padre della medicina occidentale, rivoluzion
le credenze ereditate dagli Egizi sostenendo con determinazione che il cervello
avesse un ruolo importante negli organismi degli esseri viventi: era il centro
delle sensazioni e sede dellintelligenza. Platone (328-348 a.C.), in sintonia
con le idee di Ippocrate, era convinto che il cervello fosse la sede della parte
razionale dellanima. Tuttavia, il suo allievo Aristotele (384-322 a.C.) non
fu dello stesso avviso e le sue convinzioni furono cruciali e influenzarono in
modo massiccio le convinzioni di tutti quelli che vissero dopo di lui, non solo
nel campo delle neuroscienze. Ader alla credenza che fosse il cuore il centro
dellintelletto e che il cervello fungesse semplicemente da radiatore capace di
raffreddare il sangue surriscaldato dal cuore in ebollizione. Il temperamento
razionale proprio degli uomini veniva spiegato mediante la grande capacit
di refrigerazione da parte del cervello.
2.4
Il periodo romano
Molti secoli dovettero passare prima che la concezione ippocratica venisse presa nuovamente in considerazione. Questo fu dovuto a Galeno (129-216 d.C.), senza dubbio
la figura pi importante della medicina romana. Svolgeva la sua professione di medico tra i gladiatori,
pertanto molto spesso era testimone delle sfortunate conseguenze di
lesioni spinali e cerebrali. Tra le
sue tante scoperte, degna di nota
quella legata alla razionalit, che
secondo lui si trovava nel cervello,
altrimenti non avrebbe potuto spiegare il motivo per cui i pazienti con
lesioni al cervello perdessero le loro facolt mentali. Praticava spesso la dissezione di animali: questa
tecnica gli serv per dedurre la funzione dellencefalo e del cervelletto
Figura 2.3: Unopera di Galeno
dalla loro struttura e dalla loro consistenza. In particolare, ipotizz che il cervelletto dovesse comandare i muscoli data la sua consistenza piuttosto solida, mentre lencefalo, pi tenero
al tatto, dovesse essere il centro delle emozioni. Nonostante il suo metodo di
indagine fosse discutibile, le deduzioni di Galeno risultano ancora oggi vere.
Curioso di capire come il cervello riuscisse a ricevere sensazioni e a far muovere gli arti, dissezion un cervello e si accorse che era cavo. In questi spazi
cavi, che chiam ventricoli, not la presenza di un fluido: secondo lui, questo
provava una teoria gi nota secondo cui il corpo funzionava in accordo ad
un bilanciamento tra quattro fluidi vitali o umori. Le sensazioni venivano
registrate e i movimenti avviati a partire dallo spostamento degli umori da
o verso i ventricoli del cervello attraverso i nervi che si riteneva fossero tubi
vuoti come i vasi sanguigni.
2.5
La visione del cervello di Galeno prevalse per almeno 1500 anni. Nel periodo medievale, non ci sono molte scoperte importanti da ricordare a parte il
2.6. IL SETTECENTO
lavoro di alcuni studiosi arabi, come Abulcasis, Averroes, Avenzoar e Maimonides che descrissero dettagliatamente alcune malattie e disfunzioni legate al
cervello.
Nel periodo rinascimentale, degni di nota sono gli studi del medico e anatomista fiammingo Andrea Vesalio (1514- 1564). Considerato il padre della moderna anatomia, rigett quasi completamente la medicina galenica e, grazie alla tecnica da lui intrapresa, ovvero lesame autoptico, riusc a comprendere meglio la struttura ed il
funzionamento del sistema nervoso.
Venne rafforzata soltanto la teoria Figura 2.4: De humani corporis fabricadella localizzazione ventricolare che Vesalio
spinse molti studiosi francesi a considerare il cervello come una macchina
idraulica. Il principale sostenitore di questa teoria fu il filosofo e matematico
francese Cartesio (1596-1650) che, tuttavia, non riteneva che questa teoria
potesse offrire una spiegazione del funzionamento del cervello e del comportamento animale, in quanto dotato di due enti quali lintelletto e lanima
donati da Dio.
Secondo Cartesio, dunque, i meccanismi del cervello potevano controllare il comportamento umano solo per quegli aspetti che lo facevano
assomigliare a quello delle bestie; le
capacit mentali unicamente umane esistevano fuori dal cervello, nella mente, considerata unentit spirituale.
Figura 2.5: De homine-Cartesio
2.6
Il Settecento
La grande svolta nello studio del cervello arriv nel Settecento grazie allevoluzione degli studi sullelettricit. Nel 1751 Benjamin Franklin (17061790), politico e scienziato statunitense, pubblic un trattato intitolato Esperimenti e osservazioni sullelettricit in cui annunci la scoperta di alcuni
fenomeni elettrici fino a quel momento ignorati o incompresi: sue sono le
invenzioni del parafulmine e la batteria elettrica, sue la scoperte della natu-
10
11
allinvenzione e alla messa a punto della pila voltaica, vista dagli scienziati
di tutto il mondo come la rivoluzione del secolo. Nonostante questo, gran
parte dei fisiologi erano convinti della validit della nuova teoria formulata
da Galvani prima e il biologo tedesco Du Bois-Reymond dopo, secondo la
quale i nervi erano dei fili che conducevano segnali elettrici dal e al cervello.
2.7
I principali dibattiti nella ricerca sul cervello hanno avuto origine alla fine
del XVIII secolo e, in modo quasi sorprendente, erano simili e contemporanei alla diatriba tra i fisici impegnati a stabilire se la natura della luce fosse
ondulatoria o corpuscolare. E a soprendere ancora di pi, il fatto che il
fisico britannico Thomas Young svolse un ruolo chiave in entrambe le controversie scientifiche, come si vedr in seguito. Questa disputa terr banco
per pi di un secolo: si deve aspettare il ventesimo secolo per avere maggiori
informazioni sulla struttura e sul funzionamento del cervello e per capire che,
come la luce, anche il cervello si caratterizza per questa doppia natura. Assodato ormai che lorganismo fosse costituito da un sistema di fili, i nervi, su
cui scorrevano i segnali elettrici che mettevano in comunicazione il cervello
con le varie parti del corpo in entrambe le direzioni, i fisiologi si occuparono
sempre di pi dellanatomia del sistema nervoso, praticando dissezioni del
cervello e dei muscoli. Videro che gli arti e gli organi preposposti ad una
particolare funzione erano associati a nervi che avevano radici spinali o terminavano in aree cerebrali diverse. Inoltre, a seguito di numerose analisi fatte
su pazienti che mostravano lesioni al cervello, si cap che le alterazioni del
comportamento rilevate erano correlabili direttamente con il danno corticale.
I pazienti con lesioni localizzate in parti diverse del cervello mostravano tipi
diversi di conseguenze. I neuroscienziati, allora, si interessarono al legame
tra danni cerebrali e aree danneggiate. Lanatomista tedesco Franz J. Gall
(1758-1828) era uno di questi ma si ferm allanalisi esterna del cranio: not
che la superficie del cervello era caratterizzata da notevoli protuberanze e si
chiese se anchesse presiedessero a funzioni differenti. Per fugare ogni dubbio,
Gall e i suoi seguaci raccolsero un gran numero di dati sulle misurazioni e
palpazioni di crani di centinaia di persone rappresentanti tutte le tipologie
di personalit, dai grandi talenti ai pazzi e criminali. Raccolse i suoi dati e
nel 1809 pubblic le sue conclusioni: nacque cos la frenologia (dal greco
phren=mente e logo=studio) che aveva lobiettivo di determinare le qualit psichiche e la personalit dellindividuo dalla valutazione di particolarit
morfologiche del cranio, come bozze, depressioni o linee evidenti. In seguito,
furono create le prime mappe frenologiche che avevano lobiettivo di rappre-
12
13
14
degli esseri umani. Questo disturbo che porta il suo nome, afasia di Broca,
fu il primo disturbo delle funzioni superiori ad essere correlato ad un danno
discreto del cervello e pose una pietra miliare per una nuova teoria delle localizzazioni cerebrali. Infatti, fu sufficiente un semplice decennio per mettere
in evidenza la produttivit delle scoperte di Broca.
Nove anni pi tardi, due scienziati tedeschi, lanatomista tedesco Gustav
T. Fritsch (1838-1927) ed il neurologo e neuropsichiatra Edouard Hitzig
(1839-1907) sferrarono quello che apparentemente poteva sembrare il vero
colpo di grazia alle teorie antilocalizzazioniste. Lesperimento determinante
avvenne nel 1870 a casa di Fritsch, dato che lUniversit di Berlino non permetteva sperimentazioni di questo tipo: vennero applicate delle lievi correnti
elettriche nella corteccia cerebrale di un cane non anestetizzato e quello che
scoprirono fu che la stimolazione elettrica di aree diverse del cervello causavano contrazioni muscolari involontarie in parti specifiche del corpo del cane.
Poterono cos identificare larea motoria del cervello che controllava vari movimenti del corpo come una striscia di tessuto dietro al lobo cerebrale. Nello
stesso anno, Hitzig pubblic Sulleccitabilit elettrica del cervello: era la prima volta che si fece uno studio localizzato che riguardasse il cervello e la
corrente elettrica. Per Hitzig, in realt, non era la prima volta: anni prima,
lavorando come fisico presso larma prussiana, condusse degli esperimenti su
soldati feriti i cui crani erano fratturati dai proiettili e gi allora not che
cera una relazione tra particolari aree cerebrali e particolari parti del corpo.
Il lavoro di Hitzig e Fritsch spian la strada a molti neurologi che si impegnarono in molti altri tipi di esperimenti, in particolare al neurologo e psicologo
scozzese David Ferrier (1843-1928).
Figura
2.11:
Edouard Hitzig
Considerato uno dei pi grandi neurofisiologi e neurologi di tutti i tempi, nella sua lunga carriera si interess principalmente della localizzazione
delle funzioni cerebrali e pubblic nel 1876 unopera che considerata uno
15
16
17
attivit di regioni circoscritte ma grazie allinterazione di diverse aree corticali tra loro collegate. Inoltre, sosteneva che i sintomi immediati conseguenti ad
una lesione cerebrale non fossero causati esclusivamente dal tessuto leso ma
fossero il risultato di un effetto secondario e distribuito chiamato diaschisi
che sopprimeva transitoriamente lattivit di regioni anche lontana dallarea traumatizzata. Limportanza della teoria di von Monakov sta nellavere
introdotto concetti che posero le basi per affrontare scientificamente il problema del recupero funzionale e che trasformarono la neurologia in una vera
scienza biologica in grado di fornire un contributo sostanziale alla conoscenza
dellorganizzazione funzionale del sistema nervoso centrale.
Il fisiologo americano Karl S. Lashley (1880-1958) svilupp la teoria
della equipotenzialit della corteccia cerebrale.
Egli riteneva che allinterno di una data regione
del cervello una funzione fosse ugualmente mediata da tutto il tessuto della regione stessa. Quindi,
se una regione veniva parzialmente danneggiata la
parte rimasta intatta avrebbe continuato a mediare
un determinato comportamento. Quindi, gli effetti di una lesione dipenderebbero pi dalla quantit
di tessuto danneggiato, quello che viene chiamato
Figura 2.16:
Karl effetto massa, allinterno di una struttura cerebrale, che dalla specifica substruttura distrutta. Quello
Lashley
che veniva quindi affermato dagli scienziati antilocalizzazionisti era che non ci si doveva aspettare che le zone del cervello fossero
localizzabili dato che i neuroni erano tutti collegati da una rete fissa. Questa
controversia di lungo corso si piano piano appianata grazie anche agli studi
di Tononi, Edelman e Sporns che studieremo nei prossimi capitoli: queste
due propriet cos diverse al punto da essere considerate antagoniste in realt convivono nei cervelli dei vertebrati superiori, anzi, la loro interazione
quello che rende un cervello davvero complesso.
2.8
Alla fine del XIX secolo, i fisiologi potevano contare su microscopi sempre
pi precisi e su nuove tecniche per lanalisi dei tessuti cerebrali, come la marcatura con coloranti artificiali. Una di queste tecniche era la reazione nera
inventata dallo scienziato e medico italiano Camillo Golgi (1843-1926), che
consisteva in una soluzione di acido osmico, bicromato di potassio e nitrato di argento. La combinazione di questi reagenti consente la deposizione
dellargento metallico da una soluzione del suo sale sulla superficie del neu-
18
19
20
Figura
2.22:
John Eccles
Capitolo 3
Il cervello e i neuroni
3.1
22
3.2
Il cervello lorgano che assieme al midollo spinale, forma il sistema nervoso centrale, lapparato che opera per consentire allorganismo di mantenere
23
24
dunque responsabili di quelle funzioni legate agli istinti e alle funzioni vegetative e sono collegati in modo automatico agli organi viscerali. Il sistema
limbico una complessa rete di tessuti nervosi situata al di sotto degli emisferi cerebrali che controlla risposte involontarie legate alle emozioni, come
ad esempio la contrazione dei muscoli.
25
3.3
3.3.1
Il neurone lunit cellulare che costituisce il tessuto nervoso, il quale concorre alla formazione, insieme al tessuto della nevroglia e al tessuto vascolare,
del sistema nervoso. Grazie alle sue peculiari propriet fisiologiche e chimiche, in grado di ricevere, integrare e trasmettere impulsi nervosi, nonch
di produrre sostanze denominate neurosecreti. I diversi sistemi nervosi sono
senza dubbio le strutture pi complicate che si siano evolute sulla Terra.
In natura esistono diverse forme e dimensioni per i neuroni. I neuroni
pi piccoli hanno dimensioni dellordine del micrometro, mentre i pi grandi
possono raggiungere anche i 2 metri di lunghezza. Grazie agli assoni giganti
dei calamari, lunghi circa 1 metro, si sono potuti effettuare degli esperimenti
decisivi per la comprensione del meccanismo di attivazione dei neuroni e della
26
propagazione del segnale nervoso. Nel sistema nervoso dei vertebrati, esistono, in realt, diversi tipi di cellule: i neuroni e la glia. Queste due categorie,
a loro volta, contengono diversi tipi di cellule che differiscono per struttura,
chimica e funzioni. Il numero di glia supera di dieci volte il numero dei neuroni ma svolgono un ruolo secondario: non hanno la funzione di rilevamento
dei cambiamenti dellambiente esterno, non comunicano questi cambiamenti
agli altri neuroni n comandano le risposte del corpo alle sensazioni. Bens,
la glia si occupa di sostenere, isolare e nutrire i neuroni vicini. In questa
trattazione, ci occuperemo soltanto dei neuroni.
3.3.2
Anatomia
Un neurone prototipico una cellula dalla forma allungata in cui si distinguono nettamente tre zone: il soma, i dendriti e lassone. Come ogni cellula,
delimitato da una membrana che separa linterno dallesterno, chiamata
appunto membrana neuronale.
Il soma la parte centrale
del neurone ed ha una forma
pressoch sferica di diametro
di circa 20m. costituita
dal pirenofero nel quale risiedono il nucleo e gli altri organelli deputati alle principali funzioni cellulari. Le cellule nervose presentano poi allinterno del soma una zona
che, fissata con alcol e colorata con blu di metilene, si
colora a macchia di leopardo.
Questa zona assume il nome
Figura 3.4: Schema di neurone
di Zolla di Nissl o sostanza tigroide e rende la cellula nervosa pi riconoscibile a una sezione istologica. Dal
corpo cellulare hanno origine prolungamenti citoplasmatici, detti neuriti, che
sono i dendriti e lassone. I dendriti, che hanno diramazioni simili a un albero,
ricevono segnali da neuroni afferenti e lo propagano in direzione centripeta
cio verso il pirenoforo. La complessit dellalbero dendritico rappresenta
uno dei principali determinanti della morfologia neuronale e del numero di
segnali ricevuti dal neurone. A differenza dellassone, i dendriti non sono dei
buoni conduttori dei segnali nervosi che tendono a diminuire di intensit con
la distanza. Lassone conduce invece il segnale in direzione centrifuga, cio
verso le altre cellule. Ha un diametro uniforme ed un ottimo conduttore
27
grazie agli strati di mielina, una guaina lipidica arrotolata attorno agli assoni
che funge da dielettrico. La parte finale dellassone unespansione detta
bottone terminale. Attraverso i bottoni terminali un assone pu prendere
contatto con i dendriti o il corpo cellulare di altri neuroni affinch limpulso
nervoso si propaghi lungo un circuito neuronale.
Gli assoni delle cellule del sistema nervoso periferico sono ricoperti da due membrane protettive,
che isolano lassone impedendo la dispersione degli
impulsi elettrici. La membrana pi esterna prende
il nome di neurolemma o guaina di Schwann, quella
pi interna di guaina mielinica. Lungo il neurolemma sono presenti delle strozzature, in corrispondenza delle quali la guaina mielinica si interrompe, dette "nodi di Ranvier". I neuroni del sistema nervoso
simpatico (che trasmettono cio gli impulsi elettriFigura 3.5: Al micro- ci a muscoli involontari) non presentano in genere
la guaina mielinica, mentre altri neuroni mancano
scopio
invece del neurolemma (come ad esempio il nervo
ottico).
3.3.3
28
Ca2+ o il cloro Cl di diffondere rapidamente lungo i loro gradienti elettrochimici attraverso la membrana. Ogni ione, infatti, tende a spostarsi secondo
il proprio gradiente ionico e lequazione di Nerst una legge fisica che restituisce il valore del potenziale di equilibrio di ogni singolo ione considerato. Le
cellule nervose si sono specializzate nelluso di questi canali: utilizzano una
variet di canali di questo tipo per ricevere, condurre e trasmettere segnali.
Quando una sezione del neurone viene investita da una depolarizzazione che
supera un certo valore soglia, i canali ionici del sodio e del potassio vengono indotti ad aprirsi lasciando passare gli ioni per raggiungere lequilibrio
di riposo. La conseguenza di questa reazione il cambiamento della d.d.p.
transmembrana che a sua volta causa un ulteriore incremento della permeabilit del sodio. Questa reazione si arresta non appena viene raggiunto il
potenziale dequilibrio del sodio che ha un valore di circa +30mV . A questo
punto, si inattivano i canali del sodio e iniziano ad aprirsi i canali del potassio, dunque si manifesta una corrente del potassio che assieme allazione
della pompa sodio-potassio, ripristina il valore di riposo del potenziale di
membrana. Mentre i canali del sodio si attivano immediatamente allarrivo
dellimpulso, i canali del potassio si attivano con un certo ritardo: per questo
motivo, prendono il nome di canali ritardatari. La propagazione dellimpulso
avviene al momento dellapertura dei canali del sodio: infatti questi ioni, che
entrano nella cellula, si dispongono nelle vicinanze del punto della depolarizzazione, inducendo i canali adiacenti ad aprirsi e scatendando una reazione
a catena. La velocit di propagazione dellimpulso pu raggiungere anche
il valore di 100m/s ed direttamente proporzionale al diametro dellassone. La direzione di propagazione in vivo unica: va dai dendriti ai bottoni
sinaptici dove sono presenti delle speciali molecole chiamate neurotrasmettitori. Si tratta di sostanze contenute allinterno di vescicole addensate nei
bottoni sinaptici. Allarrivo dellonda depolarizzante, le vescicole si fondono
per esocitosi con la membrana pre-sinaptica riversando il proprio contenuto
nello spazio sinaptico. I neurotrasmettitori rilasciati si legano a recettori o
a canali ionici localizzati sulla membrana post-sinaptica e linterazione tra i
neurotrasmettitori e il recettore/canale ionico scatena una risposta eccitatoria o inibitoria nel neurone post-sinaptico, dove ricomincia tutto il processo
appena descritto.
Le caratteristiche peculiari di questo processo sono innanzitutto la necessit che la depolarizzazione raggiunga un livello minimo di soglia, che deve
essere di circa 50mV . Se questo valore non viene raggiunto, la depolarizzazione non pu aver luogo e lo stimolo esterno viene disperso. La risposta
allo stimolo dunque del tipo tutto o nulla il che significa che o lo stimolo
abbastanza forte da generare una reazione oppure passa inosservato. Infine, importante anche questo fatto: dopo la depolarizzazione, la cellula
29
3.3.4
Gli studi sui neuroni risalgono allinizio del secolo scorso. I fisiologi, in quellepoca, ancora ignoravano quale fosse la natura dello stimolo. Fu dunque
decisiva lipotesi proposta da Bernstein nel 1902 in cui ipotizzava che il potenziale dazione fosse unonda in movimento di una scarica elettrica attraverso
la membrana cellulare dei neuroni. In seguito, nel 1939 i fisiologi Cole e
Curtis, in seguito a numerosi esperimenti effettuati su alcune membrane assoniche, giunsero ad una importante scoperta: lo stimolo doveva essere una
scarica elettrica che aveva come conseguenza un incremento nella conduttanza ionica della membrana neurale. Si dovette attendere la met del secolo
per giungere alla formulazione di un modello matematico che spiegasse il
comportamento dei neuroni. Lo realizzarono i fisiologi Hodgkin e Huxley
che pubblicarono nel 1952 limportante articolo A quantitative description of
membrane currents and its application to conduction, in cui cercarono di dare
una spiegazione matematica ai fenomeni che per lungo tempo avevano registrato in laboratorio, conducendo esperimenti elettrici sugli assoni giganti
dei calamari. Usando delle tecniche biofisiche particolari quali il voltageclamp e il patch-clamp, i due fisiologi arrivarono a questa serie di conclusioni
qualitative:
La corrente pu passare attraverso la membrana o aumentando la capacit di membrana o per il movimento di ioni attraverso le resistenze
in parallelo con la capacit;
La corrente ionica si divide in due componenti principali: una dovuta al
sodio e una dovuta al potassio. C unaltra corrente, chiamata leakage
current (corrente di dispersione) dovuta al cloro e ad altri ioni.
Ogni componente della corrente ionica determinata da una forza
motrice che pu essere convenientemente misurata da una differenza
di potenziale elettrico e da un coefficiente di permeabilit che ha le
dimensioni di una conduttanza.
Linfluenza del potenziale di membrana sulla permeabilit si pu esprimere in questo modo: la depolarizzazione causa un incremento crescente nella conduttanza del sodio e un incremento pi lento ma mantenuto
della conduttanza del potassio. Poi, questi cambiamenti sono graduali
e possono venir invertiti ripolarizzando la membrana.
30
Collezionarono i loro risultati registrati durante gli esperimenti e cercarono di spiegare tutti i vari fenomeni visti mediante delle equazioni matematiche. Innanzitutto diedero una forma alla corrente ionica trasmembrana:
I = CM
dV
+ Ii
dt
dove
la corrente I la densit di corrente di membrana totale (corrente
positiva verso linterno);
la corrente Ii la somma delle correnti dei singoli ioni;
V il cambiamento del potenziale di membrana dal suo valore di riposo
(depolarizzazione negativa);
CM la capacit di membrana per unit di area (assunta costante);
t il tempo.
Ulteriori suddivisioni della corrente di membrana la seguente:
Ii = IN a + IK + Il
con
IN a = gN a (V VN a ),
IK = gK (V VK ),
Il = gl (V Vl ).
In particolare:
gN a la conduttanza di membrana del sodio;
VN a la forza elettromotrice istantanea del sodio;
gK la conduttanza di membrana del potassio;
VK la forza elettromotrice istantanea del potassio;
gl la conduttanza costante di dispersione;
31
dn
dt
(n (V )n)
;
n (V )
dm
dt
(m (V )m)
;
m (V )
dh
dt
(h (V )h)
.
h (V )
dove:
C la capacit della membrana;
Ia limpulso elettrico esterno;
gi sono le conduttanze dei vari ioni;
Vi sono i potenziali di equilibrio.
I valori m ed n sono variabili adimensionali che possono assumere un
valore compreso tra 0 ed 1. dallanalisi di questi valori che si ipotizzata
lesistenza dei canali ionici per il sodio e per il potassio che fino ad allora non
erano ancora conosciuti.
Questo modello tuttavia molto complesso e non possibile trovare una
soluzione in modo analitico. stato studiato con successo grazie a numerose
simulazioni numeriche confrontate con i dati sperimentali. Per la difficolt
32
3.4
33
34
35
infatti, alcuni pazienti dal cervello diviso non subivano cambiamenti nella
personalit o nel carattere, cos come non perdevano alcuna funzionalit cerebrale per sembrava che i due emisferi del cervello fossero indipendenti.
Se una persona normale a cui si benda un occhio, riesce allo stesso tempo a
pronunciare il nome di un oggetto che vede e ad afferrarlo, azioni banali, se
vogliamo, un paziente dal cervello diviso non riesce a fare le due cose contemporaneamente. A seconda dellocchio libero, dunque dellemisfero cerebrale
attivato, riesce a svolgere solo determinate funzioni, magari riesce ad afferrare loggetto non riconoscendolo oppure riesce a ricordare il suo nome ma non
riesce ad afferrarlo. Questo esperimento la prova che il cervello riesce in
qualche modo a integrare tutte le attivit e a svolgerle e a restituire ununica
risposta. Questo fatto allora ha convinto i neurologi che lintegrazione funzionale del cervello sia un altro principio alla base della neurologia, nonostante
sia per molti aspetti contrario al principio della segregazione. Altre evidenze
cliniche sullintegrazione si hanno quando dei pazienti sottoposti a rimozione
di alcune parti del cervello, non perdono alcuna funzionalit, come se queste
funzioni venissero rimpiazzate da altre aree cerebrali.
Unaltra prova che avvalora la tesi sullintegrazione la seguente. Supponiamo che ci vengano mostrati due oggetti di forma e colori diversi, come
un quadrato blu e un cerchio giallo.
36
Capitolo 4
Analisi dei sistemi neurali
4.1
Introduzione
La svolta nelle neuroscienze avvenne nellultimo ventennio del secolo scorso quando si decise di abbandonare il metodo riduzionista e abbracciare la
teoria dei sistemi complessi per comprendere il funzionamento del cervello.
Si era notato che lo studio del singolo neurone o di singole aree cerebrali
non bastava a comprendere lenorme complessit del cervello perch la teoria
del neurone ancora non spiegava il fenomeno del binding problem, ad esempio, o lunificazione della risposta nella percezione o nel comportamento. Si
doveva inquadrare la situazione in modo diverso, ampliando limmagine e
soprattutto non cercando pi di cosiderare le caratteristiche elettrofisiche dei
neuroni. Si doveva considerare il cervello come una rete costituita da tanti
nodi, i neuroni o gruppi neurali o addirittura aree cerebrali, connessi tra di
loro in modo da potersi scambiare segnali. Segnali non pi di natura elettrica o elettrofisica, perch sono troppi: il segnale adesso un concetto pi
astratto, si tratta dellinformazione. Dora in avanti, la corteccia cerebrale
che studieremo sar un grafo su cui scorre dellinformazione e su cui avverranno dei particolari processi dinamici, che possono essere lelaborazione di
un pensiero, la reazione ad un impulso esterno o un esame di coscienza.
4.2
Complessit Neurale
Come gi discusso nellultimo paragrafo del capitolo precedente, nellorganizzazione cerebrale dei vertebrati di ordine superiore, coesistono due aspetti
tanto evidenti quanto contrastanti: la segregazione funzionale e lintegrazione. Da un punto di vista statistico, la segregazione funzionale una misura
dellindipendenza statistica relativa di piccoli sottoinsiemi del sistema neurale
37
38
Consideriamo un sottoinsieme di X composto da k elementi e lo indichiamo con Xjk dove lindice j sta ad indicare che stiamo scegliendo uno degli
39
n
sottoinsiemi di X composti da k elementi; consideriamo, inoltre, il
k
complementare: X Xjk composto da nk elementi. La mutua informazione
M I tra Xjk e X Xjk :
M I(Xjk ; X Xjk ) = H(Xjk ) + H(X Xjk ) H(X),
(4.2)
(4.3)
k
X
H(Xji ) H(Xjk );
(4.4)
i=1
I(X Xjk ) =
k
X
(4.5)
i=k
k
X
H(Xji )H(Xjk )+
i=1
k
X
i=1
k
X
H(Xji ) H(Xik ) +
i=1
con
Pk
i=1
k
X
i=1
I(Xjk ) + I(X
Xik ) I(X)
H(Xik ) +
k
X
i=1
40
e il secondo membro :
H(Xik ) +
k
X
i=1
quindi, si ottiene:
I(Xjk ) + I(X Xjk ) = I(X) M I(Xjk ; X Xjk )
e, riordinando i termini,
I(X) = I(Xjk ) + I(X Xjk ) + M I(Xjk ; X Xjk ),
come volevasi dimostrare.
Dato che M I 0, I(X) I(Xjk ) + I(X Xjk ), con segno di uguaglianza
in caso di sottoinsiemi indipendenti. Dallequazione 4.3, si vede che I(X)
anche uguale alla somma dei valori della mutua informazione tra parti che
risultano dalla bipartizione ricorsiva di X a partire dalle sue componenti
elementari. In particolare, eliminando un elemento alla volta si ottiene:
I(X) =
n1
X
(4.6)
1=1
(4.7)
41
n
X
(4.8)
k=1
Allora:
n
X
k
CN (X) =
{ [I(X) < I(Xjk ) >] =
n
k=1
n
X
k
k
k
[ I(Xjk ) + I(X Xjk ) + M I(X; Xjk ) < I(Xjk ) >] =
n
n
n
k=1
k
nk
kX
nk X
k
k
k
=
H(Hji ) H(Xj ) +
H(X Xjki )+
n i=1
n
n i=1
k
k
k
k
H(X Xjk ) + H(Xjk ) + H(X Xjk ) H(X) < I(Xjk ) >=
n
n
n
n
n
k
kX
kX
k
nk X
=
H(Xi ) H(X) < I(Xjk ) > +
H(Xjk ) +
H(X Xjk ) =
n i=1
n
n i=1
n
n
k
kX
=
H(Xi ) H(X) < I(Xjk ) >=
n i=1
n
k
= H(X) < H(Xjk ) >
n
e, dato che
n
kX
H(Xi ) > < H(Xjk ) >
n i=1
42
allora
<
n
X
H(Xik )
k=1
n
k X
>= (
H(Xi ))
n k=1
Perci:
k
n
n
X
k
k X
k
k X
H(Xi ) H(X)) (
H(Xi )) + H(Xi )]
[ (
n i=1
n
n k=1
n
k=1
e quindi
n
X
k
[< H(Xjk ) > H(X)].
n
k=1
CN (X) =
2
La seconda relazione ci permette, invece, di esprimere la complessit in
termini di mutua informazione:
n/2
X
CN (X) =
k=1
CN (X) =
2CN (X) =
n
X
k
[< H(Xjk ) > ( )H(X)]
n
k=1
n
X
k
k
nk
[< H(Xjk ) > ( )H(X)] H(X)
H(X)
n
n
k
k=1
n
X
=
[< H(Xjk ) + H(Xjk ; X Xjk ) >] H(X)
k=1
n
X
k=1
2
X
k=1
da cui
CN (X) =
2
X
k=1
4.3
44
la matrice C
= I + A, con , R ed R un vettore ndove C
dimensionale. Supporremo che Ri (t) sia una variabile aleatoria gaussiana
per ogni i = 1, ..., n:
R(t)=(R1 (t), R2 (t), ...Rn (t))T : vettore n-dimensionale le cui componenti sono tutte variabili aleatorie gaussiane;
Ri (t) = 0; la barra sta ad indicare che stiamo considerando la media
sullinsieme;
Ri (t)Rj (t0 ) = ij (t t0 );
le componenti Ri (t) sono scelte come variabili casuali gaussiane standard, quindi di media = 0 e 2 = 1: Ri (t) N (0, 1);
le componenti Ri (t) sono a due a due indipendenti: Ri (t) Rj (s),
t 6= s, i, j N ;
Ri (t) Rj (t), i 6= j.
t
X
k R(t k).
C
k=0
Y = N (Q + a, QQT ).
n
X
n R(n k)]2 =
= E[X(t)] = E[
C
2
k=0
n
X
2n 2 ] ove (R(n k))2 = 2
= E[
C
k=0
quindi
n+1
t2
2)
1 (C
=
2
1C
2.
= E[(
k=0
t
X
k R(t k))(
C
k=0
j R(t j))T ]
C
j=0
n
X
k,j=0
t
X
k,3j
t
X
k,j
k I(C
k) =
C
t
X
k=0
C
T )k .
(C
46
t
X
C
T )k = (1 C
C
T )1 (1 (C
C
T )t+1 ).
(C
k=0
Tk = (1 T)1 (1 Tn )
(1 T)
k=0
n1
X
Tk = 1 Tn
k=0
quindi
t2
t
X
C
T )k = (1 C
C
T )1 (1 (C
C
T )t+1 ).
(C
k=0
i=1,..,n
il
1 ni nl
(4.9)
X
k
[< H(Xk ) > H(X)]
n
k
dove il simbolo < ... > sta a significare che si prende la media su tutti i
sottografi di rango k. La sommatoria varia dal rango pi piccolo per un
sottografo, 2, al pi grande n 1. Se k = 1 allora lespressione per la
covarianza sarebbe banale perch la matrice delle varianze e delle covarianze
di vertici disconnessi dipendente semplicemente dalla varianza di R(t),
48
1 X
1
1
ln[(2e)n |cov(X)|] =
ln[(2e)
]
2
2
2 i
1 i2
n
(4.12)
Aggiustiamo la relazione precedente, portando fuori dal simbolo di sommatoria la quantit ln(2e) che non dipende da n, sfruttando la propriet del
logaritmo del prodotto:
X
1
1
)
H(X) = n ln(2e)
ln(
2
2
1 i2
i
n
= ln(2e) 2
ln(
i
n
= ln(2e) 2 [
X
i
ln(1
2i
n2
2i
)].
n2
1
1
x2 x3
xp
+
+ ... + (1)p1 + O(xp ).
2
3
p
)'
2
i
X 2
i
n2
i
n2
X 4
X 6
i
i
+
O(
)
4
6
2n
3n
i
i
e quindi
X 6
n
1 X 2i X 4i
i
H(X) ' ln(2e) 2 + (
+
)
+
O(
)
4
6
2 i n2
2n
6n
i
i
(4.13)
P
Nellespressione ottenuta, intervengono i valori Dk = ni=1 (i )k : sono il
numero di cammini orientati detti k-cicli del grafo iniziale, considerato non
orientato, che tornano al loro stato iniziale dopo k passi. In particolare,
n
X
X
Dk =
(i )k =
ai1 ,i2 ai2 ,i3 ...aik ,i1
i=1
i1 ,i2 ,...ik
(4.14)
(4.15)
n1
]+
[
]+R() (4.16)
C(X)
=
2 k=2
k2
n n2
4 k=2
k4
n n4
ove
n1 X
X
< D6 (k) > k
k D6
)
]
R() = O[ (
6
6k
n
n 6n6
i
k=2
(4.17)
C(X) = C
+
+
ord2
(n, m) +
C1ord4 (m, n,
C2ord4 (m, n, q 2 )
C4ord4 (m, n) + R()
n1
X
k=2
ord4
C3 (m, n,
q )+
50
In particolare:
X
i (k)2 j (k)2 =
XX
i6=j
i6=j
lq
dove viene tolto il termine D2 (k) che rappresenta il numero dei circuiti in cui
i e j sono solamente connessi tra di loro. In particolare:
XX
ail ali ajq aqj =
i6=j
lq
X
i6=j;l=j;q=i
+2
X
i6=j6=l
(aij aji )2 +
i6=j6=l6=q
X
i6=j;l=i;q=j6=l
i6=j6=l
X
i6=j;l=q=j
52
lq
i6=j;l=j;q=i
i6=j6=l6=q
i6=j6=l
54
n3
k3
q
3
2
2
XX
k
P 2
P
con q 2 =
q P (q) e q =
qP (q). Il simbolo di sommatoria sta
ad indicare che si considerano tutti i sottografi costituiti da k nodi.
Ricapitoliamo, considerando la media su tutti i termini:
< D4 (k) >=<
X
i
i6=j
n4
k4
1
2m(k)
=< 4m(k)2 > + + ( q 2 q )
2
n
n
k
k
n3
k3
3
m
+ ( q 2 q )
2
2
n
k
m
2
n4
k4
n
k
k=n1
X
k=2
n4
n1
X
k4
1
( q 2 q )
+
2 k=4
n
k
n1
X
m
2
k=4
n1
3X
+
( q 2 q )
2 k=4
m
2
n3
k3
n
k
n4
k4
+
n
k
P
Da notare che n1
k=2 q solo una funzione in n ed m dato che
m
q = n . Calcolata, diventa:
n1
X
q =
k=2
n1
X
m
k=2
= (n 1 2 + 1)
m
m(n 2)
=
.
n
n
Per il calcolo della complessit, sar necessario calcolare il valore < m(k) >,
cio la media delle connessioni del sottografo di dimensione k su tutti i
sottografi possibili.
k(k 1)
< m(k) >= m
n(n 1)
ovvero il prodotto di tutte le connessioni effettive, del grafo iniziale, per la
media di tutte le possibili connessioni, che sono k(k 1) su un totale di
n(n 1).
Per finire, occupiamoci della complessit.
n1
n1
]
+
[
] + R()
=
2 k=2
k2
n n2
4 k=2
k4
n n4
=C
+
ord2
(n, m) +
C3ord4 (m, n,
C1ord4 (m, n,
q ) +
n1
X
k=2
ord4
C4 (m, n)
+ R()
56
ord2
n1
m(n 2) m(n + 1)(n 2) m X 1
(n, m) =
+ 3
n(n 1)
2n3
n k=2 k
e non dipende dalla topologia del grafo, ma solo dal numero di nodi e di
connessioni totali.
I termini ricavati dal calcolo della complessit fino al quarto ordine sono:
P
2
C1ord4 che dipende dal valore n1
k=2 < m(k ) > che rappresenta il momento del secondo ordine del numero di rami calcolato su tutte le
dimensioni k:
C1ord4 (m, n,
n1
X
k=2
n1
X
< m(k)2 >
< m(k ) >) =
k4
k=2
2
C2ord4 dipende dal valore q 2 che rappresenta il momento del secondo ordine del quadrato dei gradi dei vertici dellintero grafo:
n1
C2ord4 (m, n,
q 2 n2 n 3 q 2 X 1 (n 4)!k!
q ) =
+
(
+
4 (k 4)!n!
8
n4
8
k
k=4
2
n1
X
3 (n 3)!k!
)
4 (k 3)!n!
k
k=3
n1
1 n2 n 3 1 X 3 (n 3)!k!
q ) =
+ (
+
8
n4
8 k=3 k 4 (k 3)!n!
n1
X
1 (n 4)!k!
)
4 (k 4)!n!
k
k=4
C4ord4 lunico termine dello sviluppo della complessit fino al quarto ordine che non dipende dalla particolare architettura del grafo ma
57
n1
m(n + 1)(n 2) m X
1
1 k1
3 +
=
+ (
5
4n
2 k=2 n(n 1) n
k
k
n4
1
m1 k4
)
4
k4
n
k
4.4
58
CM (X; Si ) =
2
X
k=1
59
Si dimostra che:
CM (X; Si ) =
n/2
X
k=1
CM (X; Si ) =
n
X
(4.18)
k=1
4.5
60
Gli esperimenti che sono stati fatti su tre tipi di reti hanno confermato
quello che gi emerso sulla relazione tra complessit e topologia. Realizzando mediante uno speciale algoritmo tre tipi speciali di reti, ottimizzate
per massimizzare, rispettivamente lentropia, lintegrazione e la complessit,
lo studio delle loro caratteristiche strutturali indica delle evidenti differenze.
I grafi generati casualmente non mostrano alcuna tendenza al raggruppamento dei vertici, avendo un basso fclust , un alto lwire e poche connessioni
reciproche (pcyc (2)) e cicli corti (pcyc (3) e (pcyc (4)). I grafi selezionati per
essere costituiti da unalta entropia hanno bassofclust perch non mostrano
evidenza di raggruppamento ma i loro vertici sono organizzati cos da massimizzare la loro indipendenza statistica (alto lwire ). I grafi che hanno alta
integrazione mostrano una marcata tendenza a formare un singolo cluster
(fclust alto) circondato da molti figli (anche lwire alto). Infine, i grafi che
hanno unalta complessit sono caratterizzati invece da vari gruppi di vertici
che sono tra loro ampiamente interconnessi, ed hanno perci un alto fclust
ma un basso lwire dato che molte connessioni restano locali: ci significa che
lalta complessit associata ad abbondanti connessioni reciproche e molti
cicli corti, come atteso.
La corteccia visiva di un macaco, che un animale molto intelligente,
caratterizzata da un alto fclust , relativamente basso lwire e una grande abbondanza di connessioni reciproche che favoriscono il rientro e cicli di dimensioni
molto piccole e tutte queste misure danno grandi indicazioni per sostenereche
esistano raggruppamenti anatomici nella corteccia visiva.
4.6
La presenza di numerosi circuiti reciproci e composti da cicli corti il substrato funzionale del fenomeno del rientro. Si tratta di un processo in continuo
sviluppo di invio di segnali ricorsivi tra gruppi neurali che avviene nelle fibre connesse in modo reciproco e parallelo che collega regioni mappate come
quelle presenti nella corteccia cerebrale. In generale, dunque, consiste di
interazioni dinamiche tra popolazioni cellulari su ampie distanze, causando
correlazioni spazio-temporali entro e tra aree corticali. un processo che si
distingue dal feed-back, di cui parleremo nel capitolo dedicato alle reti neurali
artificiali, perch questultimo segue delle istruzioni ben precise e coinvolge
una funzione derrore che viene trasmessa in serie su un singolo percorso. Il
4.7
62
EI definita come:
EI(A B) = M I(AH
max
; B)
M IB(S) = [A : B]S
EI(A B)
= min A X
min H max (A), H max (B)
Si definisce la capacit di Integrazione dellInformazione (Information Integration) per un insieme S il valore di EI(A B) per la bipartizione
con minima informazione:
(S) = EI(M IB(S))
Se calcoliamo (S) per ogni sottoinsieme S di un sistema X, possiamo
stabilire quali sottoinsiemi sono realmente capaci di integrare informazione
e quanta ne riescono ad integrare. Se un sottoinsieme con (S) > 0 non
63
4.8
Il processo del rientro permette ai sistemi neurali di integrare un gran numero di input sensoriali e risposte motorie in parallelo. Questi sistemi neurali
connettono la percezione alla memoria e allimmaginazione e quindi legano tra di loro input sensoriali complessi a risposte del passato e a esigenze
future. Secondo Gerald Edelman, questa la base per spiegare il complesso fenomeno della coscienza, argomento cos intricato che negli ultimi anni,
molti autori si sono cimentati con il problema della natura, delle propriet e
dellorigine della coscienza. Largomento stato oggetto di molti libri ma di
pochi articoli scientifici e questo la dice lunga sulla sua estrema complessit.
Si tratta di definire che cos la coscienza, di illustrare come agisce e di quale
utilit pu essere per chi la possiede, capire se appannaggio esclusivo degli
esseri umani, come qualcuno sostiene, oppure se esiste una certa continuit
nelle specie animali diverse dalla nostra. Infine, sarebbe importante capire
se possibile riprodurla in dispositivi artificiali e creare quegli ominidi di cui
tanto si parla nei romanzi e nei film di fantascienza. Uno dei pi eminenti scienziati che si occupato dellargomento stato Gerald Edelman che
propone, innanzitutto, la distinzione tra coscienza primaria, il nucleo costitutivo della coscienza stessa, posseduta da tutti gli esseri animali, e coscienza
di ordine superiore, che emerge successivamente nellevoluzione ed una caratteristica degli animali con capacit semantiche, come gli scimpanz. La
64
Capitolo 5
Le reti neurali artificiali
C un problema di fondo... di costruire un modello matematico dei processi
del pensiero, e in particolare di quegli aspetti del pensiero che sono collegati
ai processi di informazione e decisione. Il percettrone un tipo di modello
(un insieme di dispositivi di memoria connessi in modo casuale) che non ha
ancora raggiunto risultati utili ma di sicuro sembra un approccio
promettente.
Robert E. Machol, Processi di informazione e di decisione, 1960
5.1
66
per comprendere meglio le reti neurali biologiche, ma soprattutto per risolvere problemi ingegneristici di Intelligenza Artificiale e per lapplicazione in
diversi ambiti industriali e tecnologici.
5.2
La storia delle reti neurali artificiali molto recente: risale, infatti, allincirca
a settantanni fa e pu essere suddivisa in sei grandi periodi.
1. I primi approcci: Si fa comunemente risalire linizio della storia delle reti neurali artificiali nel 1943, anno della pubblicazione dellarticolo scritto da due studiosi statunitensi, il neurofisiologo Warren
McCulloch(1898-1969) e il logico Walter Pitts(1923-1969) dal titolo
A logical calculus of the ideas immanent in nervous activity. Basandosi sulle loro conoscenze in neurobiologia, svilupparono un modello di
neurone artificiale, inteso come un combinatore lineare a soglia, con dati binari multipli in entrata e un singolo dato in uscita. Dimostrarono
che un numero opportuno di tali elementi, connessi in modo da formare
una rete era in grado di calcolare semplici funzioni booleane, tipo lor
logico e land logico. Queste strutture si basavano su dei modelli dei
67
Figura
5.2:
S.McCulloch
Warren
Figura 5.3: Walter Pitts
68
69
che gett discredito nel campo della ricerca sulle reti neurali, con conseguente diminuzione dellattenzione e dei finanziamenti al medesimo.
Nell An introduction to computational geometry, gli autori generalizzarono i limiti del percettrone a singolo strato ai sistemi multistrato.
Il percettrone mostrava difficolt anche solo nelleseguire lo xor logico
(or esclusivo) e tutte quelle funzioni non caratterizzate da separabilit
lineare delle soluzioni. Secondo gli autori, questa limitazione avrebbe
condizionato anche le strutture pi complesse, come ad esempio le reti
multistrato. Questo fatto fece diminuire lentusiasmo attorno a questo
innovativo campo che a quei tempi si chiamava cibernetica: come conseguenza, tutte le ricerche in quel campo non ebbero pi sovvenzioni e
le ricerche sulle reti sarebbero ristagnate per un decennio.
4. Innovazione:
Tuttavia, nonostante la riduzione dei fondi per la ricerca, alcuni studiosi continuarono le ricerche sulle reti neurali. In questo periodo, negli
anni 70, vennero sviluppati metodi per risolvere problemi come il riconoscimento di patterns. Molti paradigmi sviluppati in questo periodo
sono ancora alla base di lavori e studi odierni. In particolare, Steve
Grossberg e Gail Carpenters nel 1988 riuscirono a convincere la societ
a stanziare fondi a delle scuole di pensiero che esploravano algoritmi di
risonanza. Svilupparono il circuito ART (Adaptive Resonance Theory)
che si basava su modelli biologicamente plausibili. Anderson e Kohonen svilupparono indipendentemente luno dallaltro delle tecniche associative. Klopf nel 1972 svilupp la base dellapprendimento neurale
in neuroni artificiali basato su un principio biologico per lapprendimento neurale chiamato eterostasi. Nel 1974 il matematico americano
Paul Werbos, nella sua tesi di dottorato, stabil quale fosse il contesto matematico per addestrare le MLP(Multi-Layers Perceptron). In
particolare, svilupp ed us lalgoritmo di retropropagazione dellerrore nonostante dovessero passare alcuni anni prima che il suo lavoro
venisse reso pubblico. Si dovette attendere infatti il 1982, quando Hopfield riusc finalmente a confutare le tesi negative di Minsky e Papert.
Amari nel 1967 si occup di sviluppo teoretico: pubblic un articolo
in cui stabil la teoria matematica alla base dellapprendimento (metodo dellerrore-correzione) che aveva a che fare con la classificazione di
pattern adattativi. Nello stesso tempo Fukushima svilupp una rete
neurale multistrato per interpretare i caratteri della scrittura a mano.
La rete originale fu pubblicata nel 1975 e fu chiamata Cognitrono.
5. Ri-emergenza:
70
5.3
71
72
73
Apprendimento non supervisionato(unsupervised learning): basato su algoritmi daddestramento che modificano i pesi della rete facendo esclusivamente riferimento ad un insieme di dati che include le sole
variabili dingresso. Tali algoritmi tentano di raggiungere i dati dingresso e di individuare pertanto degli opportuni cluster rappresentativi
dei dati stessi, facendo uso di metodi topologici o probabilistici.
Apprendimento per rinforzo(reinforcement learning): un opportuno algoritmo si prefigge lo scopo di individuare un certo modus operandi
a partire da un processo di osservazione dellambiente esterno. Ogni
azione ha un impatto sullambiente e lambiente produce una retroazione che guida lalgoritmo stesso nel processo di apprendimento. Tale
classe di problemi postula un agente dotato di capacit di percezione che esplora un ambiente nel quale intraprende una serie di azioni.
Lambiente stesso fornisce in risposta un incentivo o un disincentivo
secondo i casi. Gli algoritmi per il reinforcement learning tentano in
definitiva di determinare una politica tesa a massimizzare gli incentivi cumulati ricevuti dallagente nel corso della sua esplorazione del
problema. Lapprendimento con rinforzo differisce da quello supervisionato poich non sono mai presentate delle coppie input-output di
esempi noti, n si procede alla correzione esplicita di azioni subottimali. Lalgoritmo focalizzato sulla prestazione in linea la quale implica
un bilanciamento tra esplorazione di situazioni ignote e sfruttamento
della conoscenza corrente.
5.4
Funzione di trasferimento
Il comportamento di una ANN dipende sia dai pesi che dalla funzione di
trasferimento che specifica per le unit. Rientra in tre categorie:
lineare: lattivit di output proporzionale alloutput totale pesato;
soglia: loutput posto ad uno dei due livelli, e ci dipende dal fatto
che linput totale maggiore o uguale a qualche valore di soglia;
sigmoide: loutput varia continuamente ma non linearmente mentre
linput cambia. Le unit sigmoidi hanno una grande somiglianza con i
neuroni rispetto alle precedenti per tutte e tre sono considerate delle
approssimazioni grossolane.
Affinch una rete neurale compia un compito specifico, dobbiamo scegliere
come le unit siano connesse ad unaltra e dobbiamo porre i pesi in connessione in modo appropriato. Le connessioni sono fatte in modo che ununit
74
5.5
5.6
75
5.6.1
J1
X
i xi = wT x ;
i=1
y = (net).
con x = (x1 , x2 , ..., xJ1 )t e = (1 , 2 , ..., J1 )t dove xi li-esimo input,
i il peso della connessione i-esima; J1 il numero degli input, il valore
di soglia. () la funzione di attivazione che in generale continua, che
mappa i numeri reali nellinsieme (1, 1) oppure in (0, 1).
Queste sono le funzioni di attivazione pi comuni:
1 x0
1. soglia: (x) =
1 x < 0
76
x
2a
1
2
x>a
a x a
x < a
1
1+ex
5.6.2
Il percettrone
Il lavoro pi influente sulle reti neurali risale al 1958 quando Frank Rosenblatt
parl per la prima volta del percettrone. Si tratta di un modello alla
McCulloch e Pitts (quindi con input pesati) con un processo preliminare
addizionale fissato. Le unit chiamate A1, A2, ..., Aj, sono le cosiddette unit
dassociazione e il loro compito quello di estrarre specifiche e localizzate
caratteristiche dallimmagini di input. I percettroni imitano lidea che sta
alla base del sistema visivo dei mammiferi. Sono ancora oggi utilizzati nel
riconoscimento di patterns anche se le loro potenzialit sono superiori.
net =
J2
X
i xi = t x
i=1
77
usando il metodo del gradiente discendete, ove linsieme dei casi misclasificati da w. I pesi vengono modificati in maniera da ridurre il numero
delle classificazioni. Questo lalgoritmo di apprendimento del percettrone:
nett,j =
J1
X
i=1
con
yt,j =
1, nett,j > 0
0, altrimenti
78
5.7
5.7.1
5.7.2
Le reti feedback
79
5.8
Regola di Hebb
80
5.9
Esistono molti tipi di reti neurali che si distinguono sulla base di alcune
caratteristiche fondamentali.
tipo di utilizzo;
tipo di apprendimento;
algoritmo di apprendimento;
architettura dei collegamenti.
La divisione fondamentale quella relativa al tipo di apprendimento che, in
genere, supervisionato o non supervisionato ma, dal punto di vista del tipo
di utilizzo, possiamo distinguere tre categorie basilari:
memorie associative: riescono ad apprendere associazioni tra patterns in modo che la presentazione di un pattern A dia come output
il pattern B anche se A impreciso o parziale (resistenza al rumore).
La memoria associativa usata anche per fornire in uscita il pattern
completo in risposta ad un pattern parziale in input.
simulatori di funzioni matematiche: sono in grado di capire la
funzione che lega loutput con linput in base a degli esempi forniti
in fase di apprendimento. Dopo la fase di apprendimento, la rete
in grado di fornire un output in risposta ad un input che pu anche
discostarsi da quelli usati negli esempi di addestramento. La rete, dunque, mette in evidenza la capacit di interpolazione ed estrapolazione
sui dati del training set. La rete si comporta come una black box
perch non svela in termini leggibili la funzione di trasferimento che
contenuta al suo interno. Di questo gruppo, fa parte la rete a retropropagazione dellerrore che quella attualmente pi utilizzata per
efficacia e flessibilit.
classificatori: con essi possibile classificare dei dati in specifiche
categorie in base a caratteristiche di somiglianza. In questo ultimo tipo
di rete, si fa ricorso al concetto di apprendimento non supervisionato
o auto-organizzante, nel quale i dati di input vengono distribuiti su
categorie non predefinite. Lalgoritmo di apprendimento di una rete
neurale dipende essenzialmente dal tipo di utilizzo della stessa cos
come larchitettura dei collegamenti: le reti multistrato prevedono, in
generale, lalgoritmo a retropropagazione dellerrore. I classificatori
normalmente derivano dallarchitettura delle mappe auto-organizzanti
5.10
Per addestrare una rete neurale in modo che svolga un certo compito, si
devono aggiustare i pesi di ciascuna unit in modo che lerrore tra loutput
desiderato e loutput attuale venga ridotto. Questo processo richiede che la
rete neurale calcoli la derivata dellerrore dei pesi, che indicheremo con EW.
Deve calcolare come lerrore cambia mentre ciascun peso viene lentamente
incrementato o decrementato. Questo metodo quello pi comunemente
usato per determinare i vari EW. Lalgoritmo della retropropagazione dellerrore o back-propagation pi facile da comprendere se supponiamo che
tutte le unit della rete siano lineari. Lalgoritmo calcola ciascun EW calcolando inizialmente EA che la velocit con cui lerrore cambia mentre il
livello delle unit cambiato. Per le unit di output, EA semplicemente
la differenza tra loutput attuale e quello desiderato. Per calcolrare EA per
ununit nascosta nello strato intermedio, prima identifichiamo tutti i pesi
tra questa unit nascosta e quelle di output alle quali sono connesse. Poi
si moltiplicano questi pesi per le EA di quelle componenti e si sommano i
prodotti. La somma uguaglia le EA per le unit nascoste scelte. Dopo aver
calcolato tutte le EA nello strato nascosto, si pu calcolare allo stesso modo
le EA degli altri strati, spostandosi di strato in strato in direzione opposta
a quella in cui lattivit si propaga attraverso la rete. Per questo si chiama
"back propagation". Una volta che le EA sono state calcolate per ununit
si calcola immediatamente la EW per ciascuna connessione successiva della
rete. EW il prodotto di EA e dellattivit attraverso la connessione successiva. Per le unit non lineari, lalgoritmo di back propagazione include uno
step in pi. Prima della back propagation, EA deve venir converita in EI che
la velocit alla quale lerrore cambia mentre linput totale cambia. Per i
calcoli matematici, si consulti lappendice B.
5.11
Le applicazioni
Le ANN hanno unampia diffusione nel mondo reale e sono gi state applicate
con successo in molte industrie. Grazie alla loro ragguardevole capacit di
derivare il significato da dati molto complicati o imprecisi, possono essere
applicate per estrarre patterns o capire trend dallanalisi dei dati che sono
82
troppo complessi per essere compresi dagli uomini o dal computer. Tra le
numerose applicazioni, ricordiamo:
previsioni sulle vendite;
controllo di processi industriali;
ricerche sui dati dei clienti;
validit dei dati;
gestione del rischio.
Inoltre sono utilizzate anche per riconoscere le voci nelle comunicazioni; diagnosticare malattie, soprattutto lepatite; proteggere le telecomunicazione da
software danneggiati; interpretare vocaboli a pi significati della lingua cinese; individuare mine sotto il mare; analizzare tessuti biologici; riconoscere
oggetti tridimensionali; riconoscere la calligrafia; riconoscere facce.
5.12
Conclusioni
Capitolo 6
Intelligenza Artificiale
Credo che alla fine del secolo luso delle parole e lopinione delle persone di
cultura saranno cambiate a tal punto che si potr parlare di macchine
pensanti senza aspettarsi di essere contraddetti.
Alan M. Turing, Computing Mind and Intelligence, 1950
6.1
Introduzione
84
nel 1952, Minski parlava di intelligenza artificiale nella sua tesi di oltre mille
pagine presentata per il dottorato di Matematica delluniversit di Princeton.
In seguito, sarebbe diventato uno dei massimi studiosi dei processi mentali e
delle loro applicazioni nei sistemi computerizzati: a lui si devono, ad esempio,
gli studi sui frames, ovvero quelle strutture che riproducono il concetto di
stereotipo per le macchie intelligenti.
LA.I. si suddivide in due aree fondamentali:
Intelligenza Artificiale Forte: ritiene che un computer, se correttamente programmato, possa essere veramente dotato di una intelligenza
pura, non distinguibile dallintelligenza umana. Alla base di questa teoria, il concetto proposto dal filosofo empirista inglese Thomas Hobbes (1588-1679), il quale sosteneva che ragionare non nientaltro che
calcolare.
Intelligenza Artificiale Debole: sostiene che un computer non sar
mai in grado di raggiungere il livello della mente umana ma potr solo
arrivare a simulare alcuni processi congnitivi umani, senza mai riuscire
a riprodurli nella loro totale complessit.
Le due declinazioni, tuttavia, hanno lorigine comune, quella della necessit di elaborare linformazione alla base dei processi cerebrali, opportunamente modellati, attraverso dei programmi informatici. Questo il punto di
partenza dellla cosiddetta Intelligenza Artificiale Classica.
6.2
Cenni storici
85
primo calcolatore programmabile, invece, fu il matematico britannico Charles Babbage (1791-1871). Si trattava di una macchina calcolatrice a rotelle
che riusciva a fare calcoli differenziali. Per problemi tecnici non riusc mai a
funzionare e avrebbe dovuto essere programmata con schede perforate, come
accadde per i successivi calcolatori. La seconda macchina che progett la
macchina analitica, ma non venne mai realizzata. Nel 1854 George Boole
svilupp i fondamenti della logica proposizionale. Il suo obiettivo era quello
di travre qualche fondamento della natura e della forma della mente umana.
Verso la fine del XIX secolo, Gottlieb Frege propose un sistema notazionale
per il ragionamento meccanico e nel fare ci invent molto di quello che noi
oggi chiamiamo calcolo dei predicati.
Herman Hollerith(1860-1929), ingegnere statunitense, uno dei padri
dellinformatica e primo fondatore dellIBM, ide le schede perforte applicate alle calcolatrici attorno al 1885: questo sistema fu usato per la prima volta
per i calcoli relativi allundicesimo censimento americano risalente al 1891.
Questo sistema meccanografico riscosse cos tanto successo che fu indotto a
fondare la Tabulating Machine Corporation. In seguito i calcolatori furono
impiegati per scopi bellici, in particolare per migliorare il tiro dellartiglieria.
Solo nella met del secolo scorso si pu disporre di dispositivi di calcolo e
linguaggi di programmazione abbastanza potenti da permettere sperimentazioni sullintelligenza artificiale. Nel 1946 nasceva lENIAC concepito come
calcolatore moderno nel 45 da John Von Neumann: faceva lelaborazione a
lotti nellordine di migliaia di informazioni al minuto. La programmazione
avveniva tramite schede. Nel 1958 John McCarty usando il calcolo dei predicati di Frege un linguaggio per rappresentare ed usare la conoscenza in un
sistema che lui chiam "advice taker". Unimplementazione di queste idee la
fece Cordell Green costruendo il sistema QA3 senza molto successo, per. Il
calcolo dei predicati e le sue applicazioni sono considerati i fondamenti della
rappresentazione della conoscenza nellAI. I logici del ventesimo secolo tra i
quali Kurt Gdel, Stephen Kleen, Emil Post, Alonzo Church e alan Turing
hanno formalizzato e chiarito molto quello che poteva o non poteva essere
fatto con i sistemi logici e computazionali.
La seconda generazione di computer si ha negli anni 60: si tratta dei "The
time sharing" che erano sistemi basati sulla divisione di tempo ed erano pi
veloci: pi terminali erano collegati ad un unico computer centrale. A quellepoca, i programmi erano fortemente condizionati dai limiti dei linguaggi
di programmazione oltre che dai limiti di velocit e memoria degli elaboratori. La svolta si ha tra gli anni 50 e 60 con i linguaggi di manipolazione
simbolica.
Il punto di svolta della materia si ebbe nel 1950 quando apparse sulla
rivista Mind un importante articolo di Alan Turing (1912-1954) intitolato
86
6.3
6.3.1
87
88
per il programma di formalizzazione che aveva in mente. Il secondo problema della lista era lEntscheidungsproblem che verteva sullesistenza di una
procedura rigorosamente meccanica per distinguere enunciati dimostrabili e
indimostrabili allinterno di un dato sistema formale. Si trattava, in altre
parole, di risolvere questo problema: "Poteva esistere una procedura decisionale che, per ogni enunciato espresso in un dato linguaggio, fosse sempre in
grado di produrre una prova della verit o della falsit di quellenunciato?".
Per ogni problema espresso in linguaggio matematico, si poteva dire a priori
se ammetteva o meno una soluzione? Ecco cos il problema della decisione.
Nel 1931, Kurt Gdel, matematico e logico austriaco naturalizzato statunitense, pubblic i suoi due famosi Teoremi di Incompletezza con i quali
diede una risposta al problema della decisione di Hilbert. Sosteneva che nessun sistema matematico coerente, sufficientemente espressivo per descrivere
laritmetica ordinaria, poteva essere in grado di dimostrare la propria coerenza, n poteva essere completo. In altre parole, secondo Gdel ci sono
affermazioni vere in un sistema formale che non possono essere provate dalle
regole logiche del sistema. I teoremi di Gdel sono definiti anche teoremi
limitativi perch precisano quali propriet un sistema non pu avere.
Segue il Primo Teorema di Incompletezza di Gdel: In ogni teoria matematica T sufficientemente espressiva da contenere laritmetica, esiste una
formula tale che, se T coerente, allora n n la sua negazione sono
dimostrabili in T.
Segue il Secondo Teorema di Incompletezza: Sia T una teoria matematica
sufficientemente espressiva da contenere laritmetica: se T coerente, non
possibile provare la coerenza di T allinterno di T. In quello stesso periodo,
Bertrand Russel e Alfred N. Whithead tentarono di risolvere il problema di
89
assiomatizzazione della matematica pubblicando il trattato Principia Mathematica (PM). Gdel lo prese in riferimento per dimostrare il suo primo
teorema e la sua dimostrazione fu cos generale, che convinse tutti i matematici. Part dal fatto che regole e frasi sui numeri naturali sono oggetti di
lunghezza finita e invent, in modo geniale, lidea di codificare assiomi e regole con gli stessi numeri naturali, idea che poi venne ripresa e concretizzata
da Turing dando inizio, a sua insaputa, ad una delle rivoluzioni pi importanti della storia delluomo: linformatica. Gdel sostenne che propriet e
dimostrazioni sui numeri naturali potevano essere trasformate in propriet
e dimostrazioni riguardo i numeri naturali. E cos fece per la frase: Io non
sono dimostrabile in PM. Dopo aver denotato con G la frase Io non sono
dimostrabile in PM, supponiamo che G non sia vera: allora ci significa
che G deve essere dimostrabile usando PM. Ma la nostra intuizione dice che
se una cosa dimostrabile in PM allora deve essere vera e quindi G deve
essere vera. Ma G dichiara di non essere dimostrabile, quindi ci troviamo di
fronte al caso in cui G sia una frase vera ma non dimostrabile in PM.
Il secondo teorema distrusse completamente il programma di Hilbert: dimostr che non era possibile verificare la consistenza della teoria PM allinterno della teoria stessa. PM era consistente ma la sua consistenza non
poteva venire dimostrata. Le conseguenze dei teoremi di Gdel sono tali che
non pu esistere un algoritmo che sia in grado di dire quali proposizioni o
propriet dei numeri naturali (o di qualunque sistema assiomatizzato) siano
vere e quali siano false.
6.3.2
La risposta di Turing
90
91
te, era che venne dato un risultato indipendente dal formalismo scelto. Dopo
aver spinto pi avanti che poteva i confini della logica matematica con la sua
macchina universale, Turing cominci ad interrogarsi su come sfuggire alle
limitazioni dei sistemi formali chiusi e delle macchine puramente deterministiche. Nel 1939 pubblic la sua tesi di dottorato intitolata Systems of Logic
Based on Ordinals in cui cercava di trascendere lincompletezza godeliana
costruendo una successione di sistemi formali via via pi completi. Pass
quindi ad evocare una nuova categoria di macchine che procedevano per via
deterministica, passo dopo passo, ma che di tanto in tanto effettuavano dei
balzi in avanti non deterministici consultando quasi una sorta di oracolo. Secondo Turing, questo oracolo non poteva essere una macchina e dimostr che
anche in presenza di questo oracolo esterno, era ancora possibile costruire
enunciati indecidibili. Queste macchine proposte nel 1939 erano pi vicine
al modo in cui funziona lintelligenza artificiale: per un certo numero di passaggi si eseguivano le sequenze logiche e, per colmare i vuoti, provvedeva
lintuizione. In quellepoca, tutte le attenzioni erano concentrate sulle macchine di Turing universali, quelle in cui i numeri cominciavano a fare cose,
anticipando quello che oggi conosciamo con il nome di software. Dopo alcuni
anni di pausa concomitanti alla Seconda Guerra Modniale, in cui Turing fu
impegnato sul fronte della crittografia e la decodificazione della macchina
Enigma, nel 1945 pubblic un articolo Proposed Electronic Calculator in cui
forn la descrizione completa di un motore di calcolo automatico, che chiam
ACE. Lo scopo era quello di vedere la teoria logica della macchina universale
descritta in precedenza prendere una forma concreta. Contrariamente a quello che avvenne nella storia delle reti neurali, che vennero ideate e migliorate
imitando i neuroni biologici, Turing si avvicin alla biologia, in particolare
allo studio del cervello, solo dopo aver pubblicato e descritto accuratamente la macchina universale. I suoi collaboratori raccontarono che il lavoro di
Turing si stava spingendo sempre di pi in direzione della biologia, e non
contento di aver cercato di riprodurre le funzioni inferiori del cervello, stava
cercando di capire fino a che punto una macchina poteva riuscire ad imitare
quelle superiori. Si stava chiedendo come una macchina potesse imparare
dallesperienza. Si chiedeva se lincompletezza dei sistemi formali limitasse
la capacit dei calcolatori di replicare lintelligenza e la creativit della mente umana ma Turing trov una risposta molto semplice: non si dovevano
cercare macchine infallibili ma creare macchine fallibili, che riuscessero ad
imparare dagli errori, perch sosteneva che il requisito dellintelligenza non
fosse quello di non commettere errori ma di rimediare agli errori e imparare
dallesperienza. Tra le prime proposte concrete per realizzare tale proposito,
sugger di includere nella macchina un generatore di numeri casuali fornendo
al calcolatore la capacit di fare un tentativo e poi avvalorare o scartare i
92
6.4
6.5
93
A partire dalla met degli anni 60 si assistette ad una rivoluzione nella generazione dei computer. Con queste nuove macchine, si rese possibile anche un
salto qualitativo dei programmi ed una ricerca dellA.I. applicata soprattutto
alla comprensione del linguaggio umano, al calcolo simbolico e alla rappresentazione semantica. Samuel, nel 1963, scrisse un programma in grado di
giocare a dama e di utilizzare lesperienza acquisita durante le partite per
migliorare le proprie prestazioni successive.
Uno dei primi programmi di A.I. ad avere successo fu Eliza inventato
nel 1964 da Joseph Weizembaum, a quel tempo ricercatore del MIT e poi
divenuto un prestigioso docente. Eliza era in grado di sostenere una conversazione in inglese su copioni prestabiliti di diverso argomento. Weizembaum
fece assumere ad Eliza il ruolo di psicanalista, in modo talmente realistico
da far credere agli utilizzatori di essere davanti ad un vero dottore. Uno
psichiatra, Kenneth Colby, realizz poco dopo un programma simile ad Eliza
che chiam Parry, in grado di simulare il comportamento linguistico di un
paranoico. Furono persino organizzate sedute di dialogo tra Parry ed Eliza,
a detta di molti psichiatri estremamente realistiche.
6.6
Artificial Life
94
sia possibile creare esseri viventi artificiali al pari di quelli organici, mentre
la seconda, detta debole sostiene che le forme di vita artificiali non possono
e non potranno mai dirsi viventi del tutto.
Capitolo 7
Presente e futuro
Come fa il cervello ad elaborare informazioni? Quali sono i principi
computazionali che gli permettono di modellare, predire, percepire e
interagire con il mondo esterno? Come fa il cervello a implementare questi
principi? Per rispondere a queste domande fondamentali, abbiamo bisogno
di scale di dati, ma dati e correlazioni tra gli insiemi di dati non sono
abbastanza. Quello che abbiamo bisogno di identificare sono meccanismi
causali: per esempio, dobbiamo capire come fanno i neurotrasmettitori e gli
ormoni a modulare lattivit neurale, la trasmissione sinaptica e la
plasticit, o, ad un livello superiore, come fa il cervello a "legare"
linformazione proveniente da diverse aree visuali per formare una visione
unificata del mondo.
Henry Markram, Sette sfide per le neuroscienze, 2013
7.1
Introduzione
Nei paragrafi che seguono, vengono proposti alcuni dei pi grandi progetti
gi in parte realizzati o di realizzazione futura che riguardano lo studio e la
simulazione della complessit cerebrale. Tra questi, ci sono alcuni progetti
che riguardano le reti neurali artificiali e lIntelligenza Artificiale, altri che
non hanno per il momento alcuna valenza applicativa ma si propongono di
simulare il funzionamento di un cervello vero. Secondo la comunit scientifica, siamo solo allinizio di una nuova era che vedr coinvolte sempre di pi
linformatica, la cibernetica e la biologia in un continuo e reciproco scambio di conoscenze sullorganizzazione e la complessit cerebrale. In qualche
istituto di ricerca, tra laltro, si sta gi ipotizzando di costruire il cervello biologico artificiale, composto da neuroni biologici ed artificiali addestrati per
compiere particolari funzioni, tipo quelle perdute dal cervello di un paziente
95
96
7.2
Il computer diagnosta
una gi una realt il computer diagnosta prodotto dalla collaborazione tra lIBM e il Memorial Sloan-Kettering Cancer Centre ma nel prossimo
futuro sar un valido aiutante per le quipe mediche di tutto il mondo. Si
tratta di una rete neurale artificiale capace di consigliare i medici su quali
siano le migliori terapie da seguire nella cura dei tumori del seno, della prostata e dei polmoni. Questo computer ha la possibilit di accedere ad oltre
600.000 articoli medici, 40 riviste specializzate e decine di migliaia di cartelle
cliniche: in 3 secondi accede a 200 milioni di documenti. Ha la capacit di
capire il linguaggio dei vari documenti e di aggiornare le sue conoscenze. Al
Memorial Sloan-Kettering Cancer Centre, i primari del reparto di Oncologia
non ne possono pi fare a meno e lo consultano quotidianamente come se
fosse un loro collega umano.
7.3
Blue Brain
Il Blue Brain un progetto avviato nel maggio del 2005 dallIBM con la
collaborazione di Henry Markram e l cole Polytechnique di Losanna.
un progetto volto alla simulazione di un
cervello vero, non tanto per creare un prototipo di Intelligenza Artificiale, ma per analizzare a fondo la struttura del cervello e delle sue
connessioni. Il progetto iniziale era di simulare una colonna neocorticale che la pi piccola unit funzionale della neocorteccia. Questa
colonna, di lunghezza 2mm e diametro 0.5mm
contiene allincirca 60.000 neuroni in un essere Figura 7.1: Blue Brain
umano. La simulazione si basa sulla corteccia Project
di un topo che per pi semplice e ne contiene 10.000 con 108 sinapsi. Il
progetto si avvale del supercomputer Blue Gene che utilizza il programma
Neocortical Simulator basato su MPI per la trasmissione dei messaggi. Il
simulatore non crea una semplice rete neurale artificiale ma simula in mo-
97
7.4
Il "Progetto Cervello Umano" uno dei pi importanti progetti-faro selezionati dallUnione Europea.
un progetto del campo delle neuroscienze che si propone di realizzare, attraverso un supercomputer, una simulazione del funzionamento completo del cervello umano, coinvolgendo tutti i 1010 neuroni che in media compongono il cervello
di un uomo adulto. Questo progetto beneficer di un sostegno finanziario del vaFigura 7.2: Henry Markram
lore di un miliardo di euro per dieci anni,
fino al 2023. Il direttore del progetto Henry Markram dell cole Polytechnique Fdrale di Losanna, in collaborazione con pi di 90 universit e scuole
di alta formazione provenienti da 22 paesi diversi. Questo progetto non ha
un solo obiettivo: innanzitutto, potr dare il via a progetti di Intelligenza
Artificiale, ma soprattutto permetter lo sviluppo di un nuovo approccio alla
fisiologia e patologia del sistema nervoso. Si potranno, quindi, trovare delle
terapie innovative e pi efficaci per la cura di malattie neuropsichiatriche e
i danni dovuti alla droga o allalcol, di cui sono affetti ben due miliardi di
individui nel mondo. Si tratta della continuazione del progetto Blue Brain
98
avviato nel 2005 da IBM con la collaborazione sempre del prof. Markram e
dell cole Polytechnique Fdrale di Losanna.
7.5
7.6
Il progetto K computer
Un team di scienziati giapponesi e tedeschi hanno messo a punto una simulazione record del funzionamento del cervello: sono riusciti a riprodurre un
secondo di attivit cerebrale, dopo 40 minuti di calcoli del computer. Questa
7.7. CONNETTOMA
99
simulazione che ha richiesto 40 minuti di lavoro copre solo l1% della rete neurale del cervello umano. Questo progetto realizzato dal gruppo giapponese
RIKEN, lOkinawa Institute of Science and Technology Graduate University
e il Forschunggszentrum Julich, che un importante centro di ricerca tedesco.
Il computer usato in questa simulazione il K-computer della RIKEN che
si trova nella citt di Kobe, in Giappone, conosciuto per la sua eccezionale
precisione e potenza di calcolo. ritenuto uno dei computer pi potenti per
gli esperimenti volti alla simulazione del cervello umano.
7.7
Connettoma
100
Capitolo 8
Progetto museale
8.1
Introduzione
Come discusso nellintroduzione, uno degli obiettivi di questa tesi far conoscere al grande pubblico le problematiche, gli studi e i grandi progetti legati
al mondo delle Neuroscienze. Gli ambienti pi adatti per proporre le tematiche trattate in questo elaborato sono senza dubbio i musei della scienza e
della tecnologia, come il Muse, Museo delle Scienze Trentino, ad esempio, oppure tutte le strutture con percorsi didattici rivolti alle scuole; in provincia,
ad esempio, il Museo Civico di Rovereto. Questi istituti sono naturalmente
interessati a proporre ai visitatori nuovi spunti e curiosit. Qui di seguito
ho creato un progetto per trasformare il mio elaborato in un viaggio nelle
neuroscienze da proporre ai visitatori del di questa struttura. Si tratta di una
proposta di esposizione temporanea di alcuni pannelli elettronici su cui far
scorrere delle immagini, dei piccoli estratti di video e delle animazioni grafiche per raccontare al visitatore le fasi salienti di questa tesi. Sar concesso
allo spettatore di viaggiare liberamente nel tempo e nello spazio, dallantichit al futuro delle neuroscienze, dalla singola cellula cerebrale ai grandissimi
computer che simuleranno il funzionamento di un vero cervello, munito di
unimmaginaria macchina fotografica con cui potr immortalare le immagini
pi significative. Ad ogni momento storico e ad ogni livello di approccio al
cervello, gli racconto gli esperimenti salienti e il tipo di analisi matematica
condotto. Questa esposizione diventa dunque anche un viaggio nella biologia,
in particolare nella fisiologia del cervello, ma non solo: viaggiando nello spazio, il visitatore pu vedere da vicino le reti neurali artificiali e i dispositivi
di AI, quindi potr viaggiare nella cibernetica e nella matematica applicata
alle neuroscienze.
101
102
8.2
Progetto
Immagino di installare 6 pannelli in unarea del museo in modo che lo spettatore si possa spostare e nel frattempo ammirare il museo e le sue installazioni.
I temi trattati da ciascun pannello sono:
1. La storia delle neuroscienze: le fasi salienti;
2. Lesperimento di Hodgkin e Huxley;
3. Il cervello come sistema complesso: le reti neurali;
4. Le reti neurali artificiali: il percettrone;
5. Il sogno di Alan Turing;
6. Connettoma e lo Human Brain Project.
8.2.1
La storia in breve
8.2.2
8.2. PROGETTO
8.2.3
103
In questo pannello, con unanimazione e un effetto speciale ingrandisco linquadratura: ora pu vedere tutta la corteccia cerebrale e le zone che si attivano. Mostrando delle immagini della rivolta in Brasile nel 1984, faccio
comprendere al visitatore il motivo per il quale non basta considerare i neuroni ed il livello cellulare ma si debba considerare popolazioni, ovvero reti,
di neuroni. A questo livello, gli presento brevemente i concetti fondamentali
della teoria dei grafi e la teoria dellinformazione. Con una particolare simulazione, generando un piccolo grafo su cui avviene una particolare dinamica,
gli illustro il concetto di complessit neurale e lo convinco del legame tra
complessit e topologia del grafo.
8.2.4
8.2.5
8.2.6
Lultimo pannello si occupa dei due progetti attualmente in fase di realizzazione che cercano di analizzare e di mettere in pratica la struttura topologica
delle reti neurali biologiche. In questo caso, lanalisi dellarchitettura dei
grafi il punto cruciale. Lultimo pannello il momento nel viaggio nel futuro
delle neuroscienze e della nostra vita. Con estratti di film di fantascienza,
spiego al visitatore se davvero un giorno la Terra sar popolata di robot
capaci di pensare come luomo.
104
Appendice A
Richiami di Teoria
dellInformazione
Riprendiamo alcuni concetti di Teoria dellInformazione necessari per la nostra trattazione.
106
n
X
pj log2 (pj ).
j=1
107
1
2
2X
(x X )2
.
2
2X
f (x)
= (log2 e)(ln f (x)) per la formula del cambiaIn generale log2 f (x) = lnln2
mento della base e la formula dello scambio. Ora posso calcolare lentropia
di X:
Z +
h(X) =
fX (x) log2 fX (x)dx =
Z +
2
2
1
1
(x X )
(x X )
p
p
=
e
log
(
e
)dx =
2
2
2
2
2
2X
2X
2X
2X
Z +
Z +
2
1
1
1
1
(x X )
p
p
= log2 ( p
)
e
log2 ( p
)dx =
2
2
2
2
2
2X
2X
2X
2X
2X
Z +
Z
log2 e +
1
)
fX (x)dx +
(x X )2 fX (x)dx =
log2 ( p
2
2
2X
2X
1
1
2
= log2 2X
+ log2 e =
2
2
1
2
= log2 2eX
2
Nel caso multidimensionale, lespressione per lentropia del vettore normale Gaussiano :
H(X) =
1
ln[(2e)n |cov(X)|].
2
A.1
Mutua Informazione
108
Appendice B
Lalgoritmo della
retropropagazione dellerrore
Ununit nello strato di output determina la sua attivit nel modo seguente,
seguendo una procedura a due passi:
Calcola linput xj tenendo conto di tutti i pesi, secondo la formula
seguente:
xj =
yi Wij
1
1 + exj
1X
(yi di )2
2 i
109
=
EAj yj (1 yj )
xj
yj
xj
i
j
3. Calcola quanto velocemente lerrore cambia quando linput della connessione su ununit di input cambia. La quantit EW la risposta dallo step 2 moltiplicato per il livello dellattivit ununit che la
connessione emana.
X E
X
xj
E
=
=
EIj yj
EWij =
Wij
x
W
j
ij
i
j
4. Calcola quanto velocemente lerrore cambia quando lattivit di ununit nello strato precedente cambia. Questo passo cruciale permette
alla retro-propagazione di essere applicata alle reti multistrato. Quando unattivit di ununit dello strato precedente cambia, influenza le
attivit di tutte le unit di output alle quali connessa. Allora per calcolare leffetto totale sullerrore, si aggiungono tutti questi effetti sulle
unit di output separatamente. Ma ciascun effetto facile da calcolare:
la risposta del secondo step moltiplicata per il peso della connessione
a questa unit di output.
X E
E
xj X
EAj =
=
=
EIj Wij
yj
xj
yj
i
j
111
Usando i passi 2 e 4, possiamo convertire EA di uno strato di unit in EA
dello strato precedente. Questa procedura si pu ripetere per ottenere le EA
per tutti gli strati precedenti desiderati. Uno volta che conosciuta la EA di
ununit, si possono usare i passi 2 e 3 per calcolare EW nelle sue connessioni
successive.
Bibliografia
[1] David Applebaum. Probability and Information. An integrated approach.
Cambridge University Press.
[2] G.Tononi, O.Sporns, G. M. Edelman, A measure for brain complexity:
relating functional segregation and integration in the nervous system The
Neuroscience Institute, 1994.
[3] G.Tononi, O.Sporns, G. M. Edelman, A complexity measure for selective
matching of signals by the brain The Neuroscience Institute, 1995.
[4] G.Tononi, O.Sporns, G. M. Edelman, Connectivity and complexity: the
relationship between neuroanatomy and brain dynamics The Neuroscience
Institute, 2000.
[5] G.M. Edelman Naturalizing consciousness:
Neurosciences Institute, 2003.
a theoretical framework
114
BIBLIOGRAFIA
[12] Edoardo Boncinelli. La vita della nostra mente. Editori Laterza, 2011.
[13] Miguel Nicolelis. Il cervello universale: la nuova frontiera delle
connessioni tra uomini e computer. Bollati Boringhieri, 2011.
[14] George Dyson. La cattedrale di Turing: le origini delluniverso digitale.
Codice edizioni, Torino, 2012.
[15] Piero Angela. Da zero a tre anni. Mondadori, 2000.
[16] Christos Stergiou, Dimitrios Siganos. Neural Networks Imperial College
London
[17] Stefano Cagnoni, Giuseppe Coppini, Riccaro Poli, Guido Valli, Rossana Fargnoli, Raffaella De Dominicis. Reti neurali artificiali per il
riconoscimento di lesioni. 1992.