Sei sulla pagina 1di 27

CAPITOLO I

LA COMPLESSITÀ DELLA CONOSCENZA:


LINGUAGGIO, CONCETTI, MODELLI

SOMMARIO: 1. Introduzione: la conoscenza come campo semantico. –


2. I concetti fra composizionalità e intenzionalità. – 3. Il
problema della conoscenza, i problemi dei concetti. – 4. La
complessità dei modelli.

1. Introduzione: la conoscenza come campo semantico

L’atteggiamento con cui gli uomini si volgono verso il


mondo in maniera consapevole, riflessa e articolata è da sempre
stato messo in relazione alla loro conoscenza, alla possibilità
cioè di possedere e conservare all’interno del proprio sistema
mentale una serie di nozioni, la cui origine è stata identificata,
di volta in volta nel corso della storia del pensiero,
nell’apprendimento, nel ragionamento e nell’inferenza logica,
nell’associazione, nella memorizzazione o addirittura nella
reminiscenza di un insieme di informazioni e conoscenze già
possedute in una vita precedente e mantenute nella
trasmigrazione dell’anima in un nuovo corpo. Se, come è stata
chiamata quest’ultima, la teoria dell’anamnesi, di ascendenza
platonica e affondante le sue radici nel pensiero religioso di cui
sono ammantate le dottrine orfiche e pitagoriche, non può
essere considerata la teoria gnoseologica vincente, va notato
però che il punto di partenza da cui essa era partita – la stabilità
dei concetti che essa voleva giustificare proponendone una
versione innatistica di questo tipo – ha caratterizzato lo studio
della conoscenza nei secoli successivi.
Per Platone il problema della conoscenza era il problema di
come essa potesse appoggiarsi a nozioni stabili e in grado di far
comprendere una realtà mutevole, problema risolvibile con la
loro individuazione o, per usare un termine più contemporaneo,
CAPITOLO I

localizzazione in un mondo ulteriore e superiore rispetto a


quello sensibile. Per Aristotele, tale mondo non esisteva e
l’universalità dei concetti era nella cose, anche se distribuita,
ovvero rintracciabile nella loro predicabilità di più cose. Dal
dibattito medievale fra queste posizioni, e altre ancora, come
quella “nominalista” che considerava i concetti universali
soltanto meri termini del linguaggio o semplici nomi, è sorta la
concezione gnoseologica ed epistemologica (nel senso di teoria
della conoscenza scientifica) moderna e contemporanea, di fatto
in concomitanza con il sorgere della mente (cartesiana) come
entità mondana e indagabile. In breve, per Cartesio, la stabilità
dei concetti è dovuta alla loro innatezza, mentre per la
tradizione empirista inglese inaugurata da Locke essa si
determina nella mente tramite l’apprendimento e con la
formazione di rappresentazioni mentali, che sono, se non
proprio nomi, forse soltanto poco di più.
D’altra parte, ci si potrebbe chiedere: perché il problema
della conoscenza e dei concetti è stato così fondamentale nel
corso della storia del pensiero da diventare spartiacque tra
tendenza filosofiche diverse, perno di sistemi di idee e punto di
appoggio o di partenza nella formulazione di numerose teorie
che abbracciano un ambito che va oltre quello della semplice
comprensione dei meccanismi conoscitivi? Ogni risposta a
questa domanda rischia di essere riduttiva. Tuttavia, come si è
detto, una delle ragioni potrebbe essere trovata nel fatto che, in
primo luogo, la stabilità del nostro sapere contrasta col la natura
transeunte del mondo e della realtà, pur nei suoi elementi più
stabili come, ad esempio, quelli geologici, che a uno studio
approfondito non possono essere compresi se non si postula
anche per essi una dinamica di cambiamento. Ma se questo era
il punto di partenza di Platone, come lo sarà due millenni dopo,
soltanto per fare un nome, per Kant, un aspetto più sottile si
nasconde dietro la pretesa di comprensione della stabilità del
nostro sapere, e cioè quello della spiegazione di come si sia
generato e prodotto un sistema in grado di cogliere la
complessità del reale, non solo nelle sue forme, ma anche nei
suoi cambiamenti. Il problema della conoscenza è stato,
dunque, nel tempo il problema di come caratterizzare il
complesso nella sua interazione di generalità e dettaglio, o di
universalità stabile e microcambiamenti. Tale problema è stato
risolto evolutivamente, anche se ancora non completamente
compreso, dalle complesse capacità degli esseri umani di
LA COMPLESSITÀ DELLA CONOSCENZA

rispecchiare e rappresentare la realtà nella sua multiformità. La


complessità del mondo è stata “compresa” dalla complessità dei
nostri umani, mentali e biologici, strumenti di conoscenza. In
che senso dunque si può parlare di complessità in relazione alla
conoscenza?
Potremmo dire che la risposta riguarda la semantica e i
modi in cui essa ha intaccato la riflessione contemporanea non
solo in filosofia del linguaggio e della mente, bensì anche in
psicologia e nella scienza cognitiva. Per restringere il campo a
ciò che ci interessa, scegliendo solo uno fra i modi di porre la
questione del rapporto fra complessità e conoscenza, possiamo
dire che, in linea del tutto generale, esso si riduce al problema di
spiegare in che modo gli esseri umani comprendono i concetti
di uguaglianza, somiglianza e diversità, e li utilizzano dal punto
di vista conoscitivo per “afferrare e utilizzare l’uguale nel
diverso e il diverso nell’uguale”. Questo aspetto può essere
considerato, a esempio secondo Hofstadter, uno dei più
fondamentali alla base della nozione di intelligenza:

Nessuno sa dove sia il confine tra comportamento intelligente e


comportamento non-intelligente; di fatto, forse, non ha senso
pensare che esista un confine netto. Ma sono certamente
caratteristiche essenziali dell’intelligenza:
- reagire in modo flessibile alle varie situazioni;
- trarre vantaggio da circostanze fortuite;
- ricavare un senso da messaggi ambigui e contraddittori;
- riconoscere l’importanza relativa dei diversi elementi di una
situazione;
- trovare somiglianze tra situazioni diverse nonostante le
differenze che possono dividerle;
- trovare distinzioni fra situazioni diverse nonostante le
somiglianze che possono unirle;
- sintetizzare nuovi concetti prendendo concetti vecchi e
collegandoli in modi nuovi;
- produrre idee nuove1.

Riconoscere somiglianze e differenze a un qualsiasi livello


(molto alto o molto basso) di astrazione è la capacità attraverso
cui gli esseri umani si adattano all’ambiente in cui agiscono;
prendono decisioni in contesti concreti; riconoscono ciò che è

1
HOFSTADTER D. R. (1979), Gödel, Escher, Bach: an Eternal Golden Braid,
Basic Books, New York, (tr. it. a cura di G. Tratteur, Gödel, Escher, Bach:
un’Eterna Ghirlanda Brillante, Adelphi, Milano, 1984, pp. 27-28).
CAPITOLO I

utile, importante e vantaggioso; producono idee, piani e anche


nuovi concetti. In altri termini, può essere considerata una delle
capacità fondamentali per muoversi nella complessità, ricreando
rappresentazionalmente scenari all’interno dei quali compiere
scelte e risolvere problemi. In questo caso, l’assunto
rappresentazionalista, che propugna l’effettiva presenza di
rappresentazioni nello svolgimento di compiti cognitivi, si
unisce e si compenetra con la richiesta di una conoscenza
semanticamente interrelata, che sia, cioè, espressione nel senso
più lato del termine, di sistemi a rete che determinano il raggio
di azione di un campo in grado di cogliere flessibilmente e al
tempo stesso stabilmente la complessità del reale. In tal modo,
l’intelligenza diventa quella capacità di semplificare gli input
che provengono dalla realtà, senza perdere la possibilità, una
volta compiuta l’astrazione, di ritornare al dettaglio.
L’accento posto sull’intelligenza è un tratto peculiare
dell’ultimo secolo e una delle evoluzioni che la filosofia che si
occupa del tema della conoscenza ha assunto negli ultimi
decenni. Per tale ragione, è possibile considerare anche
l’intelligenza artificiale (IA) e buona parte della scienza
cognitiva come eredi delle questioni poste fin dall’antichità, e
allo stesso tempo come costituenti la cornice entro cui trattare,
da un punto di vista contemporaneo, la complessità, soprattutto
per quanto riguarda i problemi connessi alla concettualizzazione
e alla categorizzazione. Ma le cose non sono state sempre in
questo modo.

2. I concetti fra composizionalità e intenzionalità

Si può dire che alla base di gran parte della filosofia del
linguaggio e della filosofia della mente dell’ultimo secolo ci
siano due assunzioni la cui discussione ha fatto scaturire
numerosi filoni di indagine e di ricerca. La prima è l’idea,
riconducibile nella sua forma contemporanea a Frege, che i
concetti siano definizioni, ovvero che soltanto attraverso la
conoscenza della definizione è possibile stabilire se qualcosa,
un qualche oggetto considerato e appartenente all’universo del
discorso, rientri nell’estensione del concetto. La seconda,
ascrivibile in termini contemporanei a Brentano, è l’idea che gli
stati mentali siano rappresentazionali e dotati di un’intenzione,
un riferimento verso un contenuto, cioè una specifica direzione
LA COMPLESSITÀ DELLA CONOSCENZA

verso un oggetto2. Tali rappresentazioni sono vere solo se il


mondo si trova esattamente nella condizione che la
rappresentazione (proposizionalmente espressa) dice debba
essere. Perciò, il contenuto di tali rappresentazioni sono le
condizioni di verità che ne stabiliscono la verità o la falsità e
che ne costituiscono pertanto la loro semantica. Se si fondono
insieme queste due prospettive3, si ottiene il seguente risultato:
un concetto è una rappresentazione mentale il cui contenuto è
costituito da tutti quegli individui che soddisfano i requisiti
posti dalla definizione. Tale risultato, tuttavia, sembra implicare
una serie di condizioni che devono essere soddisfatte, ma che
vanno oltre le effettive possibilità poste dallo studio della
conoscenza da un punto di vista empirico, e dunque oltre le
possibilità di una spiegazione effettiva di come linguaggio e
mondo possono stare in relazione. E questo a causa della
complessità sia del linguaggio che del mondo.
È stato Ludwig Wittgenstein a mostrare, nei paragrafi 66 e
67 delle Ricerche Filosofiche (1953)4 con il suo esempio
relativo al concetto di “giuoco”, che a) è vana l’idea di poter
dare una definizione compiutamente determinata di numerosi
concetti e che b) nondimeno noi siamo in grado di pensare e
agire anche senza conoscere le definizioni precise dei concetti
che usiamo, muovendoci nel panorama semantico delle
relazioni, basate sulla somiglianza5, che alcune delle istanze di
essi (che sono ancora concetti) intrattengono con altre. Una
concezione della semantica basata sulla somiglianza ha
rilanciato nei decenni successivi alle riflessioni wittgensteiniane
gli studi sui concetti in psicologia e in scienza cognitiva.
Tuttavia, ha posto numerosi problemi in ambito filosofico, dove

2
Cfr. BRENTANO F. (1874), Psicologie vom empirischen Standpunkt, Dunker
& Humboldt, Leipzig (tr. it. a cura di L. Albertazzi, La psicologia dal punto di
vista empirico. Laterza, Roma-Bari, 1997).
3
Cosa non priva di problemi, perché, visto il rifiuto dello psicologismo da
parte di Frege, il contenuto delle rappresentazioni deve essere inteso come
completamente scevro dalle connotazioni che uno stato mentale acquisisce
divenendo lo stato mentale di qualcuno, ossia entrando inevitabilmente in una
rete di conoscenza individuale.
4
Cfr. WITTGENSTEIN L. (1953), Philosophische Untersuchungen, Blackwell,
Oxford (tr. it. a cura di R. Piovesan e M. Trinchero, Ricerche filosofiche,
Einaudi, Torino, 1967).
5
La metafora molto conosciuta che Wittgenstein utilizza è quella delle
“somiglianze di famiglia”, che caratterizza ogni qualsivoglia gruppo di giochi
che si può scegliere sulla base di un certo insieme di criteri o tratti.
CAPITOLO I

la riflessione sui concetti è stata condotta a partire dallo studio


del linguaggio.
Così come la lingua, ogni specifica lingua, è un sistema
complesso, la capacità umana di produrre il linguaggio è una
capacità che si può definire complessa e che si muove lungo
due traiettorie parallele e profondamente intersecate, quella
sintattica e quella semantica. Mentre gli studi chomskiani e tutto
ciò che ne è derivato per la linguistica computazionale, hanno
portato a un’adeguata e piuttosto esaustiva comprensione della
sintassi del linguaggio e del modo in cui può essere prodotta, e
dunque spiegata6, la semantica ha posto problemi difficilmente
risolvibili in ambito simulativo, ma anche cognitivo e
filosofico, essendo quest’ultimo, allo stesso tempo, il punto di
partenza e il campo di ricaduta delle acquisizioni relative agli
studi in semantica computazionale.
In effetti, due dei requisiti fondamentali dei concetti
individuati dai filosofi del linguaggio e dai filosofi della mente
sono le proprietà della composizionalità e della efficacia
causale7. Come è noto, il principio di composizionalità venne
enunciato da Frege nei suoi scritti dell’ultimo decennio
dell’Ottocento. Esso afferma che il significato di un’espressione
complessa è funzione, per composizione, del significato dei suoi
costituenti più semplici. In altri termini, il significato del tutto è
dato dalla composizione del significato delle parti. Questo, da
un punto di vista semantico, deve essere vero sia a livello
proposizionale, sia a livello di termini, cioè predicativo o, se si
vuole, concettuale. Perché deve esserlo? Perché, è
unanimemente riconosciuto in scienza cognitiva e in filosofia
che una delle caratteristiche della capacità linguistica umana è
la sua produttività illimitata a partire da un numero limitato di
componenti, o, quantomeno, da un apparato fisico limitato che
realizza un sistema di simboli altrettanto limitato, per quanto
vasto possa essere. La composizionalità (unitamente alla
possibilità della sua applicazione ricorsiva) permette la
produttività illimitata del linguaggio – nessuno, infatti, anche
intuitivamente si sentirebbe mai di dire che esiste un limite alle
cose che possono essere dette – ma anche la sua sistematicità,

6
Su questo mi permetto di rinviare alla prima delle due parti di BIANCHINI F.,
GLIOZZO A. M., MATTEUZZI M. (2007), Instrumentum vocale. Intelligenza
artificiale e linguaggio, Bononia University Press, Bologna.
7
Per una trattazione del tema dei concetti da una prospettiva filosofica si
rinvia a COLIVA A. (2004), I concetti, Carocci, Roma.
LA COMPLESSITÀ DELLA CONOSCENZA

ovvero l’idea che. se capisco certe espressioni, capisco


automaticamente altre espressioni relazionalmente collegate. Ad
esempio, se so che “il fiume attraversa la valle” so anche
immediatamente che “la valle è attraversata dal fiume”.
Queste due caratteristiche del linguaggio, sistematicità e
produttività, sembrano facilmente spiegabili come una sorta di
conseguenza necessaria degli aspetti sintattici del linguaggio,
ma pongono vari problemi dal punto di vista semantico,
soprattutto in relazione ai concetti. Già Leibniz, agli albori di
una trattazione della logica terminorum di sapore
contemporaneo, con ampie anticipazioni di quelli che sarebbero
stati i problemi di un’effettiva trattazione del linguaggio e del
pensiero come calcolo, aveva affrontato il problema nelle
Generales inquisitiones del 1686 considerandolo da un punto di
vista intensionale8 e rendendosi conto dei problemi che tale
scelta poneva, il principale dei quali albergava
nell’impossibilità di arrivare a costituenti atomici, cioè ultimi,
dei concetti. Per Leibniz, un concetto è un complesso che
esprime una serie di proprietà ed è scomponibile nei suoi
concetti costitutivi più semplici. L’impossibilità di sciogliere
questa complessità fino ai costituenti più semplici è risolvibile
da un punto di vista pragmatico e ai fini della costruzione di un
sistema di calcolo (o, in termini contemporanei,
computazionale) assumendo come primitivi termini che
primitivi non sono, e che dunque lo diventano per convenzione.
Tuttavia, questo espediente confligge: per Leibniz, con la
possibilità di comprendere fino in fondo il mondo reale che si
rispecchia nei concetti complessi (essendo una comprensione
assoluta, ovvero una scomposizione assoluta, possibile solo a
Dio, conoscitore atemporale di tutti i compossibili); per i
contemporanei, con la spiegazione effettiva di come la
semantica, da un punto di vista concettuale, si ancori alle nostre
limitate risorse computazionali producendo in modo abbastanza
affidabile l’illimitata distesa delle nostre espressioni e il non
predeterminato utilizzo categorizzante che facciamo dei nostri
concetti.

8
Cfr. LEIBNIZ G. W. (2008), Ricerche generali sull’analisi delle nozioni e
delle verità e altri scritti di logica, a cura di M. Mugnai, Edizioni della
Normale, Pisa.
CAPITOLO I

La soluzione proposta da Fodor9 incorpora sia le critiche


nei confronti della definizioni, sia il tentativo di salvare la
composizionalità attraverso l’assunto che esistano concetti
atomici, che per lui non possono essere altro che simboli del
pensiero. Tale soluzione sostiene una teoria del mentale che è
diventata il quadro di riferimento per eccellenza della scienza
cognitiva cosiddetta classica, la Teoria Rappresentazionale (e
Computazionale) della mente, secondo la quale la mente
possiede concetti come rappresentazioni e li combina secondo
regole rigide, ma ottenendo di dominare la complessità del
mondo con la sua illimitatezza produttiva10. Fra i vari requisiti
di tale teoria, quello dei concetti atomici sembra il più difficile
da accettare, poiché essi, oltre a non essere pochi, devono in
aggiunta essere considerati come innati, generando il problema
di quali sono invece quelli appresi.
Le tesi di Fodor sono state a lungo discusse e hanno
generato un dibattito corposo. I problemi da lui posti e le ipotesi
ardite da lui confezionate hanno generato numerosi quesiti cui
sono state date soluzioni anche molto diverse, in genere
riguardanti il che cosa significa possedere un concetto, in una
gamma di posizioni che vanno dall’atomismo all’olismo e che
tentano di mediare fra il fatto che essi sono “verbalizzati” nel
linguaggio e il fatto che, al tempo stesso, essi stanno per
qualcosa che è nel mondo. Questo ci conduce alla seconda
proprietà dei concetti, la loro efficacia causale. I concetti,
infatti, come costituenti dei pensieri sono il motore del nostro
comportamento (linguistico e non). Dunque, da una parte
devono poter esercitare la loro azione causale nel mondo fisico,
e perciò stesso avere una realizzazione fisica che sia coerente
con la loro spiegazione funzionale all’interno di una mente
anch’essa spiegata e compresa in termini funzionali; dall’altra
devono comunque rimandare, e quindi avere, un contenuto. Con
ciò si ritorna al problema dell’intenzionalità.

9
Il saggio fodoriano maggiormente dedicato all’argomento è FODOR J. A.
(1998), Concepts. Where cognitive science went wrong, Oxford University
Press, New York (tr. it. a cura di S. Levi, Concetti. Dove sbaglia la scienza
cognitiva, McGraw-Hill, Milano, 1999).
10
“Composizionalità: i concetti sono i costituenti dei pensieri e, in
innumerevoli casi, di altri concetti. Le rappresentazioni mentali ereditano il
loro contenuto dal contenuto dei loro costituenti” (FODOR J. A (1998),op. cit.,
p. 27).
LA COMPLESSITÀ DELLA CONOSCENZA

Come fanno i concetti a significare ciò che significano? Ma


anche, che cosa significano i concetti? Anche in questo caso, la
pletora di posizioni è sterminata ed è compresa in una gamma
che va dall’internismo più intransigente, secondo cui il
contenuto del concetto dipende dalle strutture e dai processi
mentali, all’esternismo più deciso, secondo cui è il mondo
esterno alla mente a determinare il contenuto dei concetti. Al di
là delle varie posizioni, resta il fatto che, se dobbiamo
considerare le nostre capacità di pensiero come
rappresentazionali, esse devono esprimere una sorta di
intenzionalità che sia collegata alla loro efficacia causale. La
soluzione classica proposta da Searle11 vede nel cervello l’unica
possibilità di ottenere a) una realizzazione dei nostri stati
mentali semantici e b) l’effettiva presenza di poteri causali
legati a un contenuto semantico. Come è noto, il bersaglio
critico di Searle è la pretesa che i programmi simulativi non
aiutino soltanto a spiegare gli aspetti cognitivi, ma costituiscano
essi stessi la spiegazione, e attribuisce tale pretesa a un filone
dell’intelligenza artificiale da lui definito “forte”. Il fulcro del
suo argomento risiede nel fatto che i programmi per computer
elaborano simboli che hanno solo una sintassi ma non una
semantica. In altri termini, i simboli secondo Searle sarebbero
vuoti. Il loro contenuto, che è invece un prodotto intenzionale,
non è veramente presente, se non per un osservatore esterno,
poiché solo il cervello possiede le caratteristiche adeguate per
sviluppare l’intenzionalità e utilizzare le “reali”
rappresentazioni che ne conseguono con un effettivo potere
causale.
Mentre la parte construens dell’argomentazione searliana
sembra non avere la stessa forza di quella destruens e lasciare
adito a interpretazioni diverse, anche a causa di una certa
vaghezza e imprecisione, la parte distruttiva, da cui Searle
prende le mosse, ha generato una vasta discussione sul ruolo
che sintassi e semantica giocano nel definire le potenzialità
concettuali umane. Egli ha ribadito le sue posizioni anche in

11
Cfr. SEARLE J. R. (1980), “Mind, Brains and Programs”, in The Behavioral
and Brain Sciences, 3, pp. 417-457 (tr. it. di G. Tonfoni, Menti, cervelli e
programmi, un dibattito sull’intelligenza artificiale, CLUP-CLUED, Milano,
1984); SEARLE J. R. (1983), Intentionality. An essay in the philosophy of mind,
Cambridge University press, Cambridge (tr. it. a cura di D. Barbieri, Della
intenzionalità. Un saggio di filosofia della conoscenza, Bompiani, Milano,
1985).
CAPITOLO I

periodi più recenti12 in un quadro di spiegazione generale dei


fenomeni mentali e in particolare all’interno della disputa fra
internismo ed esternismo semantico. Nello specifico, la sua
risposta a quest’ultimo sembra voler conciliare aspetti diversi
delle due posizioni: “se rifiutiamo la tesi esternista secondo cui
il contenuto intenzionale è determinato da catene causali
esterne, cos’è allora che lo determina? Non penso ci sia una
risposta generale in termini causali alla domanda, se non che i
nostri contenuti intenzionali sono determinati da una
combinazione di nostre esperienze di vita e di nostre capacità
biologiche innate”13. Quali siano queste capacità è un problema
mai sciolto da Searle fino in fondo, anche se il trend generale
delle ricerche in scienza cognitiva, come pure in psicologia, ha
fortemente abbracciato una direzione “neurolocalizzativa” delle
attività mentali, portando ad acquisizioni relative al cervello,
anche se non a risposte conclusive relativamente ai problemi
posti da macro-temi filosofici come la capacità di
comprensione, la semantica, l’intenzionalità e la
rappresentazione mentale.
Certamente il problema dell’intenzionalità si lega a quello
del contenuto semantico fin dai suoi esordi. Esso riguarda sia la
questione del riferimento dei termini del nostro linguaggio, sia
quella dell’ancoramento dei simboli di un sistema intelligente
alla realtà, che a ben vedere sono due problemi paralleli e
interconnessi, che qui non affronteremo per ragioni di spazio.
Searle, insieme ad altri filosofi interessati alla mente, ha avuto il
pregio di ricondurre ancora una volta in ambito filosofico
problemi sorti nell’ambito dell’IA, segnando una tappa sul
cammino che ha portato queste due discipline – la filosofia e
l’IA – apparentemente divergenti al contemporaneo confronto
con il tema della complessità. Ripartiremo ora dall’IA e dal
problema della rappresentazione della conoscenza per arrivare
alla rinascita dell’interesse verso i concetti da parte della
psicologia e della scienza cognitiva.

12
Cfr. SEARLE J. R. (2004), Mind. A Brief introduction, Oxford University
Press, Oxford (tr. it. a cura di C. Nizzo, La mente, Raffaello Cortina, Milano,
2005).
13
SEARLE J. R., La mente, p. 170.
LA COMPLESSITÀ DELLA CONOSCENZA

3. Il problema della conoscenza, i problemi dei concetti

A tuonare contro l’impossibilità di arrivare a una vera


rappresentazione della conoscenza in un sistema artificiale e
dunque a riprodurre gli aspetti semantici della conoscenza
umana, è Hubert Dreyfus14, che argomenta, da un punto di vista
filosofico, le impossibilità dell’IA, già prima della critiche di
Searle. La conoscenza posseduta da un sistema artificiale è, per
Dreyfus, nella migliore delle ipotesi soltanto un insieme di fatti
collegati e interconnessi, che possono costituire un universo
logico, ma non hanno la ricchezza del mondo, fatta di pratiche,
abilità ed entità che danno significato all’agire umano.
All’origine di queste osservazioni, tra le prime a richiamare
la complessità del mondo in funzione critica nei confronti della
possibilità di comprendere attraverso simulazioni il pensiero
umano, sta il passaggio, compiuto dall’IA negli anni Settanta
del secolo scorso, da una focalizzazione sulla rappresentazione
del problema a una focalizzazione sulla rappresentazione della
conoscenza15. Negli anni della costruzione dei primi sistemi
esperti la conoscenza del programma consiste, in buona parte,
in una serie di nozioni e fatti espressi in forma proposizionale
trattabili attraverso procedimenti logici. Tuttavia, proprio nel
periodo in cui ci si rende conto che, da un punto di vista
applicativo e pratico, tali sistemi ottengono un certo successo
come strumenti utili in ambiti specializzati proprio per la loro
alterità rispetto al modo in cui è strutturata la conoscenza
umana, che verosimilmente è strutturata per reti concettuali e
non per immense moli di nozioni potenzialmente sempre
disponibili, una parte dei ricercatori in IA comincia a muoversi
nella direzione opposta, cioè quella di creare sistemi che
incorporino modalità human-like di rappresentazione della

14
DREYFUS H. (1979), What computers can’t do: the limits of artificial
intelligence, Harper & Row, New York (tr. it. Che cosa non possono fare i
computer: i limiti dell’intelligenza artificiale, Armando, Roma, 1988);
DREYFUS H. L. (1981), “From micro-world to knowledge representation: A. I.
at an impasse”, in HAUGELAND J., Mind Design: Philosophy, Psychology,
Artificial Intelligence, MIT Press, Cambridge, Mass., pp. 161-204 (tr. it.
Progettare la mente: filosofia, psicologia, intelligenza artificiale, Il Mulino,
Bologna, 1989, pp. 177-219).
15
Cfr. RUSSELL S., NORVIG P. (2003), Artificial intelligence. A modern
approach, Prentice Hall, Uple Saddle River (ed. it. a cura di F. Amigoni,
Intelligenza artificiale. Un approccio moderno, volume 1, Pearson Italia,
Milano, Torino, 2010, p. 551).
CAPITOLO I

conoscenza, sia quella memorizzata a lungo termine, sia quella


effettivamente disponibile e utilizzata nelle elaborazioni
implicate nell’azione compiuta da un individuo in un
determinato momento. Tale filone di ricerca si è concentrato
inevitabilmente sugli aspetti semantici della conoscenza e ha
inaugurato a sua volta la sfida alla simulazione della
conoscenza concettuale, influenzando al tempo stesso psicologi
e scienziati cognitivi nella ricerca sui concetti.
L’interesse verso il tema della simulazione della
complessità della conoscenza umana è stato certamente sospinto
dai primi tentativi, ad opera di Quillian16, di creare reti
concettuali o semantiche. Le reti di Quillian sono gerarchiche e
permettono l’ascrizione categoriale di entità a concetti. Esse
sono grafi formati da nodi tipo e nodi istanza o esemplare,
gerarchicamente inferiori, collegati fra loro da archi che
rappresentano le relazioni fra concetti e istanze. I nodi tipo
rappresentano il significato del concetto sotto forma di
descrizione delle caratteristiche che lo definiscono. Tale
struttura relazionale, come si vede, permette una trattamento
logico, e dunque composizionale, della conoscenza semantica,
ma è al tempo stesso ancora basata sul sistema definizionale,
già criticato in ambito filosofico, come abbiamo visto, per
l’impossibilità di cogliere in modo assoluto l’essenza del
concetto. La novità di questi tentativi rispetto al passato risiede
nel fatto che, con gli studi compiuti in IA all’interno del filone
che s’interessa alla comprensione dei fenomeni cognitivi, la
questione si ripropone prepotentemente dal punto di vista del
pensiero e l’impossibilità di trovare l’essenza di un concetto
linguistico si trasferisce nella difficoltà o impossibilità, in
ambito psicologico, di trovare l’essenza di un concetto mentale.
Su tale difficoltà o impossibilità si focalizzano gli psicologi,
anche a partire dai fallimenti dell’IA nel simulare una
conoscenza semantica di tipo umano.
Tuttavia, anche le soluzioni proposte in ambito psicologico
sono strettamente collegate, nel bene e nel male, con gli
strumenti ideati per superare il problema dei concetti in IA. Fra

16
Cfr. QUILLIAN M. R. (1967), “Word concepts: A theory and simulation of
some basic semantic capabilities”, in Behavioral Science, 12(5), pp. 410-430;
QUILLIAN M. R. (1968), “Semantic memory”, in Semantic information
processing, pp. 227–270.
LA COMPLESSITÀ DELLA CONOSCENZA

essi, il più noto sono certamente i frame di Minsky17, i quali, a


differenza delle reti semantiche di Quillian, dove i concetti sono
definiti con liste di caratteristiche prestabilite e ciò che conta è
la loro relazionalità, sono rappresentazioni dei concetti come
strutture di dati, i quali possono essere fatti, procedure, altri
frame o caratteristiche di default, che, nel momento in cui
devono adattarsi a un oggetto specifico possono essere
modificate con l’eventuale tratto deviante rispetto alla norma
assegnata per default. Per esempio, una delle caratteristiche per
il concetto SEDIA potrebbe essere “avere quattro gambe”, ma
una particolare sedia potrebbe avere una gamba in meno, e
dunque il frame che servirà a rappresentare quella particolare
sedia nel contesto dell’elaborazione corrente sostituirà nello
slot, o terminale, della struttura dati il tratto “avere quattro
gambe”, assegnato per default, con il tratto “avere tre gambe”.
Al di là delle numerose discussioni sorte attorno a questo tipo di
visione sui concetti, e delle sue pur evidenti potenzialità, che
sono state alla base dei successivi sviluppi della
programmazione per oggetti, l’aspetto interessante di questa
proposta risiede nel suo tentativo di aggirare il problema della
rappresentazione definizionale del concetto, permettendo una
variabilità e una flessibilità che si avvicinano alla modalità con
cui un utente umano rappresenta e categorizza il mondo reale,
creando strutture dati concettuali ricorsive, potenzialmente
sempre perfettibili, ma senza perdere la possibilità di una
gerarchizzazione delle conoscenze, che i frame riprendono e
realizzano in senso tassonomico18.
Seppure tali sistemi (reti semantiche e frame) sono stati
(una parte del) tentativo di rendere conto in ambito simulativo
delle acquisizioni della ricerca psicologica sui concetti di un
determinato periodo, producendo a loro volta non poche
influenze di rimando, è pur vero che, come affermano
Cordeschi e Frixione essi “erano di solito caratterizzati in
maniera abbastanza rudimentale e imprecisa. Mancava un
definizione chiara del formalismo, e, di conseguenza, lo studio
delle loro proprietà metateoriche risultava praticamente

17
MINSKY M. (1975), “A Framework for Representing Knowledge”, in
WINSTON P.H. (ed.), The Psycology of computer vision, McGraw-Hill, New
York, pp. 211-280.
18
Con tutte le caratteristiche delle tassonomie, a cominciare dall’ereditarietà
dei tratti in senso gerarchico.
CAPITOLO I

impossibile”19. Tali aspetti furono perciò perfezionati attraverso


la creazione di logiche descrittive, formalismi appositamente
creati per rappresentare la conoscenza sfruttando le risorse e le
possibilità della logica dei predicati, e dunque, per tale ragione,
ancora ancorati alla tradizione classica secondo cui un concetto
è rappresentato da, o il suo significato è (rintracciabile
attraverso), la sua definizione. Come è noto, tali logiche sono
state il punto di partenza per sviluppare l’odierna
rappresentazione basata su ontologie, le quali pure possono
essere considerate ricadere all’interno del campo della
rappresentazione della conoscenza di tipo classico20.
Ma quale è la componente psicologica principale che questi
sistemi intendevano cogliere negli anni Settanta? Si può dire
che il problema della complessità nei concetti da un punto di
vista psicologico si gioca tutto sui loro effetti prototipici e sui
risvolti che essi hanno in merito ad aspetti tipicamente al centro
dell’interesse della psicologia, come l’apprendimento e la
categorizzazione. In effetti, di fronte alla complessità degli
stimoli che un individuo riceve dal mondo, una delle abilità più
sorprendenti, e che appare collidere in modo più forte con il
modo in cui la conoscenza sembra che debba necessariamente
essere strutturata per il ragionamento e altri compiti astratti, è
quella di ricavare l’informazione rilevante in un contesto
percettivo, senza tralasciarne le variazioni legate alle specifiche
situazioni. Il linguaggio sembra incorporare, nelle sue infinite
possibilità combinatorie, le potenzialità espressive per
rappresentare il mondo nel modo che la sopravvivenza e
l’adattamento richiedono agli esseri umani. La psicologia e la
scienza cognitiva assumo come punto di partenza che anche la
mente debba avere le stesse potenzialità rappresentative ed
essere in grado, attraverso apposite abilità descrivibili in termini
funzionali, di cogliere la dinamica uguale-nel-diverso e diverso-
nell’uguale cui abbiamo accennato in precedenza.
A partire dagli anni Settanta del secolo scorso lo studio
degli effetti prototipici dei concetti diviene uno dei fulcri della
ricerca in psicologia, un filone inaugurato dalle ricerche di

1919
CORDESCHI R., FRIXIONE M. (2011), “Rappresentare i conetti: filosofia,
psicologia e modelli computazionali”, in Sistemi intelligenti, 23 (1), pp. 31.
20
Per un presentazione di questi argomenti e una relativa bibliografia si rinvia
a GANGEMI A., GLIOZZO A. M. (2007), “Ontologie”, in BIANCHINI F., GLIOZZO
A. M., MATTEUZZI M., (2007), Instrumentum vocale. Intelligenza artificiale e
linguaggio, Bononia University Press, Bologna, pp. 287-308.
LA COMPLESSITÀ DELLA CONOSCENZA

Eleanor Rosch21. L’idea alla base di questi studi è che,


soprattutto nei compiti di categorizzazione, percezione e
apprendimento, la teoria per cui un concetto possa essere
definito come una lista di condizioni necessarie e sufficienti che
devono essere soddisfatte da un individuo per ricadere
nell’estensione del concetto, teoria cosiddetta “classica”,
presenta numerosi problemi riscontrabili dal punto di vista
empirico. Gli esperimenti compiuti in questo campo darebbero
dunque ragione a Wittgenstein e alla sua teoria sulle
somiglianze di famiglia fra sottocategorie di una categoria più
generale. Tali esperimenti mostrano come gli esseri umani siano
più propensi a muoversi in un orizzonte semantico-concettuale
dove alcuni membri di una categoria sono considerati più tipici
di altri. In altri termini, da un punto di vista empirico, non tutti i
membri di una categoria sono allo stesso livello; per esempio,
una mucca è un membro della categoria dei mammiferi più
tipico di un pipistrello. Le categorie della psicologia appaiono
corredate di tratti specifici tipici che gli agenti cognitivi
utilizzano nelle loro categorizzazioni della realtà22. Che
conseguenze se ne possono trarre in merito alla natura dei
concetti?
Le molteplici risposte che sono state date a questa domanda
vengono in genere riportate a tre macro-tipi. C’è una visione per
cui i concetti sono prototipi, individuati attraverso una lista di
caratteristiche prototipiche, cui corrisponde una
rappresentazione mentale di default costruita attraverso questi
stessi tratti prototipici. C’è poi una visione per cui i concetti
sarebbero rappresentazioni mentali di esemplari specifici di cui
un individuo ha avuto esperienza, nel senso che li ha
effettivamente incontrati e percepiti in precedenza. Infine, c’è la
21
Cfr. ROSCH E. (1975), “Cognitive representations of semantic categories”,
in Journal of Experimental Psychology: General, 104, pp. 192-233.
22
La trattazione più esaustiva della questione dei concetti in generale,
comprensiva delle varie soluzioni proposte, è probabilmente ancora MURPHY
G.L. (2002), The Big Book of Concepts, MIT Press, Cambridge, Mass. Sul
tema è stata prodotta negli ultimi anni una letteratura sterminata. Qui ci
limitiamo a segnalare solo due riferimenti più recenti cui rimandiamo anche
per la relativa bibliografia: LALUMERA E. (2009), Cosa sono i concetti,
Laterza, Roma-Bari, e FRIXIONE M. (2011), “Categorizzazione/Concetti”, in
MARRAFFA M., PATERNOSTER A. (a cura di), Scienze cognitive.
un’introduzione filosofica, Carocci, Roma, pp. 95-110. Per una trattazione del
punto di vista della modellistica cognitiva, mi permetto di rinviare a
BIANCHINI F. (2008), Concetti analogici. L’approccio subcognitivo allo studio
della mente, Quodlibet, Macerata.
CAPITOLO I

visione per cui esiste un certo nucleo di proprietà più essenziali


che già i bambini dimostrano di possedere nell’applicazione dei
concetti. Esse costituirebbero la teoria specifica relativa a quel
concetto, che ne permette la sua applicazione (ma in altre
versioni essi sono equivalenti ai termini di una teoria scientifica
e vengono utilizzati “alla luce di” quella teoria). All’interno di
queste tre prospettive le spiegazioni sulla natura dei concetti si
articolano ulteriormente in modalità diverse, in alcuni casi
anche ibride.
Non è qui possibile, per ragioni di spazio, ripercorrere tutto
il dibattito attorno a una questione così intricata. Ci limiteremo
a notare alcune cose. In primo luogo, gli effetti prototipici, o
anche di tipicità, incorporano i risultati sperimentali cercando di
proporne spiegazioni plausibili dal punto di vista cognitivo e,
tuttavia, si scontrano con alcuni dei requisiti delle teorie
filosofiche dei concetti, primo fra tutti quello della
composizionalità. La composizione di due concetti, infatti,
produce in genere un nuovo concetto, il quale non eredita i tratti
prototipici dei due concetti costituenti, ma ne ha di nuovi23.
In secondo luogo, va notato che ogni singola teoria
proposta per spiegare la natura dei concetti è una buona
spiegazione di alcuni dei loro aspetti, sperimentalmente rilevati,
ma al prezzo di altre caratteristiche, che vengono tralasciate,
non spiegate o lasciate sullo sfondo24. Ciò vale anche per le
soluzioni composite o ibride, che cercano di unificare in
un’unica visione teorica gli aspetti positivi, perché esplicativi,
delle varie teorie proposte. Tentativi di questo genere non
sembrano pervenire a risultati fruttuosi, come fa notare lo stesso
Murphy nella sua ampia disamina del problema25. Non solo ciò
porta a conclusioni in merito a questo problema che, con un
eufemismo, si potrebbero definire aporetiche, ma gettano anche
dubbi sulle effettive unitarietà e omogeneità del fenomeno dei

23
L’esempio tipico è nell’argomento proposto da Fodor contro gli effetti
prototipici. Egli sostiene che un “pet fish”, cioè il pesciolino che vive negli
acquari delle abitazioni, non ha (tutti) i tratti tipici del pesce (fish), né quelli
dell’animale domestico (pet).
24
Si pensi solo alla difficoltà di spiegare il requisito, che appare irrinunciabile,
della generalità di un concetto attraverso la teoria dei concetti come collezione
di esemplari (Cfr. MEDIN D. L., SCHAFFER M. M. (1978), “Context theory of
classification learning”, in Psychological Review, 85, pp. 207-238.), tutti
inevitabilmente differenti.
25
Cfr. MURPHY G.L. (2002), op. cit.
LA COMPLESSITÀ DELLA CONOSCENZA

concetti da un punto di vista cognitivo26, per non parlare della


dicotomia che persiste fra concetti in ambito filosofico e
concetti in ambito psicologico, che rimarca l’eterogeneità di
questo fenomeno, producendo al contempo, va sottolineato,
anche fruttuose interazioni disciplinari e più o meno
apprezzabili avanzamenti teorici.
In terzo luogo, lo sviluppo parallelo dell’IA da una parte e
delle ricerche in filosofia e psicologia dall’altra è dovuto anche
al fatto che la prima ha un interesse generalizzato nei confronti
dei risultati raggiunti, o dei problemi posti, dalle seconde. L’IA,
e, allargando il discorso, la scienza cognitiva, cosiddette
classiche, all’interno di un quadro il cui assunto principale è la
spiegazione funzionalistica dei fenomeni cognitivi, hanno
utilizzato i loro metodi per trattare la complessità delle
questioni legate alla semantica sempre alla luce di un fine
pragmatico, o quanto meno, empirico. Se un sistema di
rappresentazione della conoscenza funziona, lo si vede dai
risultati, e i risultati dipendono dagli scopi e dagli obiettivi, così
come, dipendono, in un altro senso, dai metodi impiegati. L’IA
classica ha da sempre fatto ampio uso della metodi della logica,
che ben si adattano alla visione classica dei concetti come liste
di tratti, cioè come definizioni il cui contenuto è espresso o
esprimibile in formato proposizionale e predicativo. Al tempo
stesso, l’intento, sempre dell’IA e della scienza cognitiva
classiche, di proporre spiegazioni plausibili dei fenomeni
cognitivi, ha portato la prima a modificare e a tarare sulle sue
esigenze i metodi della logica per confrontarsi con la
complessità del mondo, che è sia la complessità del contesto
entro cui avvengono l’elaborazione e la ricerca della soluzione
del problema, sia la complessità dell’attuarsi del fenomeno
cognitivo stesso, e dunque, ancora una volta, la complessità data
dall’intreccio di intenzionalità e rappresentazione.
I metodi logici sviluppati nel corso dei decenni in IA sono
stati di diverso tipo. Oltre ai frame, si pensi anche all’ipotesi del
mondo chiuso e alle varie logiche non monotone, come la
circoscrizione e le logiche di default. Tuttavia, le stesse logiche
descrittive e gli strumenti per la costruzione di ontologie, sono
un tentativo di dominare la complessità di grandi corpora di
dati, espressi in formato testo, cioè in genere in linguaggio
naturale, e resi disponibili nella maggior parte dei casi

26
Cfr. CORDESCHI R., FRIXIONE M. (2011), op. cit.
CAPITOLO I

dall’avvento della rete internet nell’ultimo quindicennio.


Quest’ultimo caso, in particolare, ha mostrato come sia
possibile anche un’evoluzione delle complessità e come nuove
forme di complessità semantica possano prodursi con la
ristrutturazione e la nascita di nuovi contesti e ambienti,
ancorché virtuali, esplorabili dall’utente umano con il suo
sistema cognitivo, ma in maniera più estensiva, anche attraverso
opportuni strumenti automatici d’indagine.
Infine, seppure non abbiamo affrontato, né affronteremo
per esteso la questione del contenuto dei concetti, va ricordato
che esso a che fare con l’intenzionalità e non stupisce il fatto
che le teorie esterniste, in ambito filosofico, trovino un
riscontro, nel loro empirismo e nel loro rifiuto dell’innatismo,
proprio in quei settori dell’IA e della scienza cognitiva che più
hanno posto l’accento sulle capacità pratiche dei sistemi
intelligenti. Così, ad esempio, l’idea che i concetti siano abilità
o capacità27– nello specifico capacità di riconoscere gli oggetti
di cui essi sono concetti – ben si sposa con i tentativi
nell’ambito dell’IA di realizzare sistemi in grado di compiere
categorizzazioni sulla base di informazioni percettive, sia a
livello sensoriale, sia a livello più alto. Analogamente, la
tendenza a considerare i concetti come qualcosa di situato, o in
ogni caso come parte integrante di una cognizione il cui tratto
essenziale è la sua situatedness, come per esempio fa
Barsalou28, è perfettamente in linea con gli sviluppi dell’IA
come parte della robotica, nella quale le funzioni sensori-
motorie, oltre a essere un obiettivo da conseguire, possono
diventare un punto di partenza per sviluppare (almeno alcuni)
aspetti della conoscenza semantica di un sistema intelligente,
cioè quelli più dipendenti non sono dal mondo esterno, ma
anche dall’azione, dal comportamento, dal movimento orientato
allo scopo nel mondo esterno.

27
Cfr. MILLIKAN R. (2000), On clear and confused ideas. An essay about
substance concepts, Cambridge University Press, Cambridge (tr. it. di V.
Zavarella, Delle idee chiare e confuse. Saggio sui concetti di sostanza, ETS,
Pisa, 2003).
28
Cfr. BARSALOU L. (2008), “Grounded Cognition”, in Annual Review of
Psychology, 59, pp. 617-645; BARSALOU L. (2009), “Situating Concepts”, in
ROBBINS P., AYDEDE M. (eds.), The Cambridge Handbook of Situated
Cognition, Cambridge University Press, Cambridge, pp. 236-263. Per questo
filone di indagine si veda anche LIUZZA M. T., CIMATTI F., BORGHI A. M.
(2010), Lingue, corpo, pensiero: le ricerche contemporanee, Carocci, Roma.
LA COMPLESSITÀ DELLA CONOSCENZA

4. La complessità dei modelli

Per comprendere più a fondo questi aspetti e vedere come


la questione della conoscenza semantica dal punto di vista della
complessità abbia avuto ulteriori sviluppi, occorre considerare
da ultimo il modo in cui le nozioni di intenzionalità e di
rappresentazione sono state trattate dalla modellistica
simulativa. Se è vero, infatti, come abbiamo visto, che sia la
psicologia sia la filosofia si sono dedicate al problema
semantico trattando la questione della natura dei concetti da
prospettive diverse, e dunque i concetti studiati dalla filosofia e
quelli studiati dalla psicologia sono, se non entità di tipo
diverso, almeno fenomeni che suscitano interessi diversi nelle
due discipline, è pur vero che la costruzione di un modello
simulativo della cognizione, che abbia cioè l’obiettivo di
riprodurre a fini esplicativi qualche fenomeno o capacità
cognitiva, è un’impresa che ha spesso fuso insieme i risultati e
le teorie provenienti da entrambi questi filoni di ricerca.
In un modello cognitivo29, la rappresentazione della
conoscenza e la capacità di confrontarsi con almeno alcuni
aspetti del mondo reale, sono due esigenze, a volte polarizzate,
che difficilmente possono essere trascurate o eliminate, pena la
perdita di plausibilità cognitiva. Intenzionalità e
rappresentazione, per quanto siano nozioni che derivano da una
considerazione intuitiva del modo in cui funziona la mente
umana, non sembrano facilmente accantonabili nella
spiegazione della cognizione. Nell’ultimo trentennio si sono
aperti, nel campo delle discipline simulative, numerosi filoni di
ricerca che hanno fatto della complessità, al tempo stesso, un
punto di partenza e un punto di arrivo, nel tentativo di
rispondere a domande del tipo: quale tipo di rappresentazione è
cognitivamente plausibile? Quale rapporto con il mondo può
configurarsi come effettiva realizzazione di una dinamica
intenzionale che coinvolge un sistema intelligente e il contesto

29
Per un’ampia trattazione dal punto di vista storico e teorico dei modelli
della cognizione si veda CORDESCHI R. (2002), The Discovery of the Artificial:
Behavior, Mind and Machines Before and Beyond Cybernetics, Kluwer
Academic Publishers, Dordrecht. Per una discussione sul metodo sintetico
nella scienza cognitiva si rimanda a CORDESCHI R. (2008), “Steps toward the
synthetic method: symbolic information processing and self-organizing
systems in early Artificial Intelligence”, in HUSBANDS P., HOLLAND O. AND
WHEELER M. (eds.), The Mechanical Mind in History, The MIT Press,
Cambridge, Mass., pp. 219-258.
CAPITOLO I

in cui opera? Se rappresentazione e intenzionalità sono concetti


ancora non maturi, in che modo le scienze della mente (e del
cervello) possono sostituirli, senza perdere le possibilità
esplicative che tali nozioni hanno nel contesto delle teorie sui
fenomeni cognitivi, soprattutto quelli più astratti?
Le summenzionate critiche di Searle nei confronti di una
versione forte dell’IA, che farebbe coincidere i programmi con i
fenomeni cognitivi, sono obiezioni più o meno condivisibili a
un particolare programma di ricerca (il funzionalismo
computazionale) che hanno fatto emergere il disagio verso uno
sbilanciamento logico nella trattazione di questi temi, un
disagio peraltro già esplicito nei dibattiti in filosofia della mente
e del linguaggio che hanno caratterizzato la seconda metà del
ventesimo secolo. I tentativi di superamento di questo disagio e
dell’impasse creatasi nell’IA e nella scienza cognitiva in
generale hanno portato a incorporare alcune aspetti delle teoria
della complessità nelle architetture dei modelli cognitivi
prodotte nell’ultimo quarantennio. I due aspetti che vorremmo
sottolineare, nei loro tratti essenziali, in questo contesto sono il
vasto impiego del concetto di rete e l’attenzione rivolta alla
computazione naturale e biologicamente ispirata, prendendoli
come indici ed elementi qualificanti dello spostamento verso i
temi della complessità, intesa in un senso più specifico, cui le
ricerche sulla semantica in relazione alla cognizione sono
andate incontro nell’ultimo ventennio.
Come abbiamo visto, il concetto di rete per la simulazione
della conoscenza concettuale è stato utilizzato nel corso della
storia dell’IA per creare basi di conoscenza strutturate in cui i
concetti sono collegati su un piano verticale, cioè gerarchico, e
su uno orizzontale, per associazione. Questo è quanto avviene
con reti di tipo simbolico, in cui le relazioni sono esse stesse
simbolicamente interpretabili. Con lo sviluppo – in realtà, una
sorta di parziale riscoperta – del connessionismo e
dell’elaborazione distribuita30, il concetto di rete si è evoluto in
una direzione più adatta a simulare quei fenomeni cognitivi,
come il riconoscimento di pattern o la categorizzazione
percettiva di basso livello, che avevano posto non poche
difficoltà all’approccio tradizionale basato su metodi logici.

30
Cfr. RUMELHART D.E., MCCLELLAND J. L. AND THE PDP RESEARCH GROUP
(1986), Parallel distributed processing, MIT Press, Cambridge, Mass. (tr. it.
parziale, PDP, microstruttura dei processi cognitivi, Il Mulino, Bologna,
1991).
LA COMPLESSITÀ DELLA CONOSCENZA

L’idea di fondo è che una rete, definita neurale perché incorpora


alcune delle caratteristiche tipiche del neurone e delle sue
connessioni con altri neuroni31, possa realizzare un tipo di
elaborazione su basi puramente numeriche come risultato di una
trasformazione di un pattern di valori, che codifica un input
esterno, in un altro pattern di valori, che decodificato
costituisce l’output. Mentre input e output sono simbolicamente
interpretabili e, dunque, comprensibili, tutta l’elaborazione della
rete avviene su basi puramente matematiche, nel senso che i
nodi della rete, come i neuroni, superato un certo valore di
soglia, “scaricano”, cioè trasmettono la loro attivazione ai nodi
collegati. Tale attivazione nel passaggio fra gli strati della rete
viene trasformata da moltiplicatori numerici, ovvero i pesi degli
archi della rete. In questo caso la rete è un sistema non-lineare,
adattativo, che dopo un periodo di addestramento in cui si
raggiunge il livello ottimale dei pesi degli archi, è in grado di
restituire un output soddisfacente una volta immesso un
determinato input.
I numerosi compiti in cui sono state impiegate le reti
neurali artificiali testimoniano la loro versatilità e flessibilità.
Tuttavia, senza addentrarci troppo nei particolari, è abbastanza
evidente come in un’elaborazione di questo tipo, l’elemento
simbolico viene messo da parte – per tale ragione si parla di
subsimbolismo –, anche se la sua presenza per un trattamento
semantico dell’informazione sembra renderlo imprescindibile
per compiti cognitivi più astratti. Naturalmente, sono stati fatti
molti tentativi per conciliare il subsimbolismo con il simbolico,
o, in altri termini, per sviluppare l’idea che un’elaborazione
complessa e non lineare possa trattare anche elementi che
sembrano invece più consoni a una trattazione esplicita,
deterministica, basata su regole logiche di inferenza e
transizione e su relazioni simbolicamente interpretabili, anche
per quanto riguarda il linguaggio e il requisito della
composizionalità32. Tuttavia, sia che i nodi della rete stiano per
concetti o che la conoscenza sia totalmente distribuita33, la

31
Per un’introduzione si rimanda a FLOREANO D., MATTIUSSI C. (2002),
Manuale sulle reti neurali, 2 ed., Il Mulino, Bologna.
32
Ad esempio le reti auto-associative di POLLACK J. (1990), “Recursive
Distributed Representations”, in Artificial Intelligence, 46, pp. 77-105.
33
In un modello subsimbolico, i nodi della rete possono rappresentare singoli
concetti (in questo caso la rappresentazione è locale) oppure possono non
essere individuabili come, o associabili a, unità della rete (in questo caso la
CAPITOLO I

rappresentazione della conoscenza in questi modelli sembra


perdere i suoi classici connotati essenziali, a favore delle
potenzialità di un’elaborazione dinamica non lineare, in cui ciò
che conta è la rappresentazione del risultato e non del processo.
E il risultato è conseguenza emergente dell’elaborazione.
La complessità, nel senso più proprio del termine con cui si
parla di essa in relazione alla cognizione, è strettamente
collegata all’emergenza e questo è uno dei nodi teorici ancora
oggi più discussi e controversi. È veramente possibile avere una
rappresentazione della conoscenza che sia tale e sia realizzata in
maniera distribuita ed emergente? Se sì, a quali condizioni, a
quale prezzo e con quali benefici? L’emergenza può spiegare
quei fenomeni cognitivi che un’elaborazione basata su metodi
logici simula in maniera più o meno strettamente deterministica,
o può soltanto simularli a un grado che non è sufficiente per la
spiegazione?
Quando si parla di emergenza, gli aspetti chiamati in causa
sono due. Da una parte l’idea che ci sia, almeno, un doppio
livello, cioè un substrato in cui avvengono una serie di azioni da
parte di micro-entità, e uno strato superiore in cui qualcosa si
determina per l’azione combinata e la dinamica complessa delle
micro-entità al livello inferiore. Che tale risultato emergente sia
un comportamento motorio, percettivo o linguistico, il principio
resta lo stesso e si collega in modo prossimo con l’altro aspetto,
ovvero l’assunto per cui il livello (o, generalizzando, i livelli)
superiore sia allo stesso tempo dipendente e autonomo da quello
(quelli) inferiore. In particolare, questa autonomia non si
intende solo come una questione terminologica o nominale.
Essa dovrebbe auspicabilmente essere tale da spiegare, se non
una causalità dall’alto verso il basso, almeno un qualche effetto

rappresentazione è distribuita). In entrambe le situazioni la dinamica della


rete, cioè la trasformazione dei pattern di attivazione dei nodi della rete, segue
gli stessi principi di fondo e le modalità specifiche previste dal tipo di
architettura di rete che si sta utilizzando. Nel caso di reti locali si salverebbe
anche una rappresentazione esplicita delle associazioni fra concetti, ma non la
composizionalità. Per una discussione di questo aspetto si rimanda a
SMOLENSKY P. (1988), “On the Proper Treatment of Connectionism”, in
Behavioral and Brain Sciences, 11, pp. 1-77 (tr. it. di M. Frixione, Il
connessionismo tra simboli e neuroni, Marietti, Genova, 1992).
LA COMPLESSITÀ DELLA CONOSCENZA

di retroazione dai livelli superiori in direzione di quelli


inferiori34.
Il tema dell’emergenza permea gran parte dell’ambito della
spiegazione dei fenomeni cognitivi, perché esso sembra offrire
una soluzione ai vari gap che sono emersi nel corso degli anni,
ma anche perché esso appare essere un tratto tipico delle entità
biologiche, fra le quali vanno annoverate anche quelle che
presentano aspetti cognitivi, come gli esseri umani. Anche dal
punto di vista della conoscenza semantica, la dottrina
dell’emergenza nelle sue connessioni con le potenzialità della
complessità, sembra offrire un buon principio teorico per
risolvere le questioni poste dalla rappresentazione e dall’uso che
un agente intelligente ne fa nel suo comportamento inteso in
senso lato, uso nella cui spiegazione si può far collassare anche
il requisito dell’intenzionalità che appare determinante
nell’esibire un’attività “intelligente”. Che i concetti siano
contenuti di pensiero con una qualche qualità rappresentativa,
certamente isomorfica e non iconica, e legata a un’elaborazione
emergente, sembra ancora oggi un aspetto difficilmente
aggirabile nella spiegazione dei fenomeni cognitivi. Per tale
ragione, la computazione ispirata biologicamente ha avuto uno
sviluppo non secondario negli ultimi decenni proponendo
modelli di vario tipo, oltre a quelli connessionistici che pure
rientrano di diritto in questa categoria.
In effetti, se si guarda all’architettura dei modelli cognitivi,
è possibile combinare non solo aspetti simbolici e subsimbolici
per ciò che riguarda la conoscenza e le capacità semantiche di
un modello, bensì anche altri aspetti funzionali, come
l’interazione fra vari tipi di memoria e di attività mentali,
eventualmente localizzabili cerebralmente, che entrano in gioco
nella soluzione di problemi, nella pianificazione e
nell’apprendimento. D’altra parte, se essere intelligenti vuol
dire non solo essere in grado di esibire le capacità di risoluzione
relativamente a certi problemi (come giocare a scacchi o
effettuare la giusta categorizzazione di certi input sensoriali),
ma anche dare una risposta adattativa all’ambiente in cui si
opera e che è in continua trasformazione, euristiche
biologicamente ispirate unitamente ad aspetti del mondo
biologico colti nei loro tratti funzionali, possono essere
34
Cfr. HOFSTADTER D.R. (2007), I am a strange loop, Basic Books, New
York (tr. it. di F. Bianchini, M. Codogno, P. Turina, Anelli nell’io, Mondadori,
Milano, 2008).
CAPITOLO I

utilmente impiegate a fini esplicativi nella costruzione di


modelli cognitivi anche per quanto riguarda lo spinoso tema
della rappresentazione. Questo quadro teorico è quello in cui si
inserisce, e che al tempo stesso giustifica, la computazione
biologicamente ispirata e i principi teorici della complessità cui
si richiama, non solo come serbatoio di idee per la realizzazione
di entità artificiali definibili “intelligenti”, ma anche come
paradigma di spiegazione dei fenomeni cognitivi.
Con computazione biologicamente ispirata ci si riferisce a
differenti campi di studio e applicazione che utilizzano alcuni
aspetti o fenomeni presenti nel mondo biologico per costruire
algoritmi e programmi che ne incorporino i principi di fondo.
Fra i vari campi, oltre alle già citate reti neurali artificiali, si
possono annoverare gli algoritmi genetici, i sistemi immunitari
artificiali, gli automi cellulari, gli algoritmi che riproducono il
comportamento di colonie di insetti eusociali, le reti di
comunicazione e diffusione epidemiologica, e altri ancora. I
principi cui questi approcci si ispirano sono tutti ripresi dal
mondo naturale (l’evoluzione, i sistemi immunitari, le reti
neuronali, ecc.). Essi condividono alcuni aspetti di fondo:
l’evoluzione (o coevoluzione) non lineare e dinamica fra
parametri attorno a cui ruota l’elaborazione; l’autorganizzazione
intesa come transizione verso un risultato o un comportamento
stabile non deciso dall’alto; l’emergenza di tale risultato o
comportamento a partire dall’attività di micro-entità o micro-
unità in qualche modo attive; l’interazione bidirezionale tra
livelli; l’interazione reticolare fra micro-entità che si dispiega
nella dicotomia competizione/collaborazione e produce un
adattamento al contesto (della realtà, anche simulata, o, in
termini più ristretti, dell’attività elaborativa corrente). Per tali
ragioni i sistemi studiati da questi approcci vengono considerati
un sotto-caso dei sistemi complessi in generale, quello dei
sistemi complessi adattativi35.
Tutti questi approcci sono stati utilizzati con diverse
finalità, solo in parte riconducibili alla modellizzazione
cognitiva. Per quello che riguarda il nostro discorso, abbiamo
già accennato al modo in cui la rappresentazione dei concetti ha
avuto ampio spazio all’interno del filone connessionista delle
reti neurali artificiali in un rapporto di complementarità e/o
35
Cfr. HOLLAND J. H (1992), Adaptation in Natural and Artificial Systems:
2nd edition, The MIT Press, Cambridge, Mass. Ma la prima edizione è del
1975.
LA COMPLESSITÀ DELLA CONOSCENZA

contrapposizione con l’approccio tradizionale (in IA) alla


questione. Negli ultimi anni, parallelamente a un interesse
crescente verso il tema della rappresentazione, lo sviluppo dei
sistemi complessi adattativi e della computazione
biologicamente ispirata per la simulazione di alcuni particolari
fenomeni cognitivi come quelli legati alla coscienza – sviluppo
che non è stato immune dall’influenza dell’enorme
avanzamento nello studio della cognizione da parte delle
neuroscienze – ha portato alla costruzione di architetture volte
alla modellizzazione della capacità di rappresentazione in un
sistema intelligente basate sui principi e i vincoli della
complessità prima elencati.
Un’ampia raccolta di questi modelli è in un volume di
Hofstadter e collaboratori36. Essi rientrano tutti in un approccio
definito subcognitivo, che ha come principale obiettivo quello
di modellizzare le capacità cognitive analogiche. Anche se il
dominio di applicazione può sembrare ristretto, modellizzare la
capacità di fare analogie chiama in campo capacità percettive,
astrattive e di categorizzazione. Dunque, l’impresa compiuta dai
ricercatori che hanno aderito a questo approccio non è così
limitata come può sembrare a prima vista. Inoltre, la tradizione
cui esso si ispira è quella delle architetture multi-agente,
perfezionate con l’introduzione dei principi dei sistemi
complessi adattativi37. Senza entrare troppo nei particolari,
possiamo dire che tali architetture hanno come base tre
componenti:
1) una rete di conoscenza di tipo non connessionista, ma
con la possibilità che nodi e archi, che rappresentano i concetti,
abbiano differenti livelli di attivazione; tale rete rappresenta la
conoscenza stabile, memorizzata a lungo termine, del modello;
2) uno spazio di elaborazione dove sono immessi gli
elementi del problema e il problema viene progressivamente
rappresentato;

36
Cfr. HOFSTADTER D. R. & FARG (1995). Fluid Concepts and Creative
Analogies: Computer Models of the Foundamental Mechanisms of Thought,
Basic Books, New York (tr. it. di M. Corbò, I. Giberti, M. Codogno, Concetti
fluidi e analogie creative. Modelli per calcolatore dei meccanismi
fondamentali del pensiero, Adelphi, Milano, 1996).
37
Non a caso, uno dei primi modelli sviluppati da Hofstadter e collaboratori è
riportato già nella prima edizione del volume di Bocchi e Ceruti del 1985
dedicato alla complessità. Cfr. BOCCHI G., CERUTI M. (2007), Le sfide della
complessità, Bruno Mondadori, Milano, pp. 274-309.
CAPITOLO I

3) una lista di microprocedure o microagenti che vengono


prodotti e attivati a seconda di una serie di parametri, che vanno
dalla misura del probabilismo che il sistema immette
nell’elaborazione, alla quantità di attivazione che i concetti
della rete hanno, al feedback che i diversi agenti ricevono sia in
termini di successo nel compiere il loro compito, sia in
relazione all’effettiva creazione di strutture di collegamento,
raggruppamento e messa in relazione degli elementi del
problema.
Nei sistemi subcognitivi l’attenzione è tutta volta a ottenere
la percezione di alto livello, ovvero un’organizzazione
semanticamente valida e rilevante per gli scopi
dell’elaborazione. La percezione di alto livello non solo
produce rappresentazioni, ma lo fa progressivamente
ricostruendo continuamente la situazione percepita nello spazio
di lavoro elaborativo al fine di giungere alla proposta di una
soluzione, che può variare per ogni esecuzione del programma.
Tale dinamica rappresentativa non è governata dall’alto, ma
dall’interazione complessa delle micro-procedure, ognuna
dedicata a svolgere un semplice processo. La rappresentazione
della conoscenza a ogni stadio dell’elaborazione è, dunque,
emergente e non determinata a priori, anche se la dinamica non
è caotica. Tali modelli funzionano incorporando da un punto di
vista funzionale aspetti biologici ripresi dal metabolismo
cellulare o dal sistema immunitario38 o anche dalle colonie di
insetti eusociali, definibili come superorganismi39.
Un approccio alla cognizione di questo tipo non deve
necessariamente essere limitato alla costruzione di analogie. Ciò
che conta è la possibilità di estendere un meccanismo che rende
la rappresentazione della conoscenza stabile e fluida al tempo
stesso, in modo da poter essere usata nei contesti più aperti
possibili come capacità adattativa per eccellenza. Tale forma di
rappresentazione è parziale ma sufficiente40 per ogni scopo o
semplice comportamento che il sistema sia chiamato a

38
MITCHELL M. (2006), “Complex systems: Network thinking”, in Artificial
Intelligence, 170, 18, pp. 1194-1212.
39
Cfr. HÖLLDOBLER B., WILSON E. O. (2009), The Superorganism. The
Beauty, Elegance, and Strangeness of Insect Societies, W. W. Norton &
Company, New York (tr. it. di I. Blum, Il superorganismo, Adelphi, Milano,
2011).
40
Cfr. LAWSON J., LEWIS J. (2004), “Representation Emerges from Coupled
Behavior”, in Workshop Proceedings of the 2004 Genetic and Evolutionary
Computation Conference. June 26-30.
LA COMPLESSITÀ DELLA CONOSCENZA

perseguire o svolgere. Tutto ciò serve a evitare sia la tendenza


al rigetto della rappresentazionalità nei modelli cognitivi di
attività di alto livello, sia troppo rigidi metodi di
rappresentazione della conoscenza, restituendo alla conoscenza
semantica quella sua dinamicità pratica che ne costituisce il
tratto essenziale nei sistemi intelligenti, che siano modelli
computazionali soltanto virtuali o che trovino, invece,
applicazione nella costruzione di artefatti robotici liberi di
muoversi in un ambiente reale.
Nel prossimo futuro la sfida che attende lo studio della
complessità relativamente alle questioni semantiche avrà
probabilmente sempre più a che fare con la possibilità di
modellizzare la conoscenza che un sistema naturale o artificiale
possiede non solo come insieme di quantità di informazione
memorizzata e organizzata, ma anche come insieme di dati
continuamente riorganizzabili di fronte alle necessità del
mondo. L’esigenza di perfezionare logiche che contemplino
eccezioni o quella di strutturare ontologie sempre più
comprensibili per l’analisi e il data mining procederà di pari
passo con una sempre maggiore comprensione dei concetti e
della loro natura, sia in ambito filosofico che psicologico,
trovando ulteriori riscontri empirici e pragmatici nella
realizzazione di modelli cognitivi che, al di là dei principi cui si
ispirano le loro architetture, non possono prescindere del tutto
dal modellizzare anche le capacità rappresentazionali o, al
contrario, dal giustificare, corroborandolo con alternative di
successo, la loro eliminazione. Di certo, l’utilizzo di quelle che
possono essere definite “euristiche delle complessità” come
mezzo per la creazione di modelli sempre più psicologicamente
e biologicamente plausibili potrà portare benefici anche alle
questioni classiche poste dal tema dell’intenzionalità. Se non
sarà una comprensione della coscienza e dei fenomeni coscienti
a gettare, per prima, luce su che cosa significa possedere una
conoscenza semantica imprescindibilmente rivolta verso un
esterno rispetto a essa, saranno probabilmente le tecniche
sviluppate per spiegare l’accoppiamento coevolutivo fra sistema
(intelligente) e ambiente a sciogliere i nodi che ancora
impediscono la piena comprensione della complessità alla base
della conoscenza semantica stessa. Questo anche a costo di
ulteriori frammentazioni di ciò che noi pensiamo siano i
concetti.

Potrebbero piacerti anche