Esplora E-book
Categorie
Esplora Audiolibri
Categorie
Esplora Riviste
Categorie
Esplora Documenti
Categorie
1
HOFSTADTER D. R. (1979), Gödel, Escher, Bach: an Eternal Golden Braid,
Basic Books, New York, (tr. it. a cura di G. Tratteur, Gödel, Escher, Bach:
un’Eterna Ghirlanda Brillante, Adelphi, Milano, 1984, pp. 27-28).
CAPITOLO I
Si può dire che alla base di gran parte della filosofia del
linguaggio e della filosofia della mente dell’ultimo secolo ci
siano due assunzioni la cui discussione ha fatto scaturire
numerosi filoni di indagine e di ricerca. La prima è l’idea,
riconducibile nella sua forma contemporanea a Frege, che i
concetti siano definizioni, ovvero che soltanto attraverso la
conoscenza della definizione è possibile stabilire se qualcosa,
un qualche oggetto considerato e appartenente all’universo del
discorso, rientri nell’estensione del concetto. La seconda,
ascrivibile in termini contemporanei a Brentano, è l’idea che gli
stati mentali siano rappresentazionali e dotati di un’intenzione,
un riferimento verso un contenuto, cioè una specifica direzione
LA COMPLESSITÀ DELLA CONOSCENZA
2
Cfr. BRENTANO F. (1874), Psicologie vom empirischen Standpunkt, Dunker
& Humboldt, Leipzig (tr. it. a cura di L. Albertazzi, La psicologia dal punto di
vista empirico. Laterza, Roma-Bari, 1997).
3
Cosa non priva di problemi, perché, visto il rifiuto dello psicologismo da
parte di Frege, il contenuto delle rappresentazioni deve essere inteso come
completamente scevro dalle connotazioni che uno stato mentale acquisisce
divenendo lo stato mentale di qualcuno, ossia entrando inevitabilmente in una
rete di conoscenza individuale.
4
Cfr. WITTGENSTEIN L. (1953), Philosophische Untersuchungen, Blackwell,
Oxford (tr. it. a cura di R. Piovesan e M. Trinchero, Ricerche filosofiche,
Einaudi, Torino, 1967).
5
La metafora molto conosciuta che Wittgenstein utilizza è quella delle
“somiglianze di famiglia”, che caratterizza ogni qualsivoglia gruppo di giochi
che si può scegliere sulla base di un certo insieme di criteri o tratti.
CAPITOLO I
6
Su questo mi permetto di rinviare alla prima delle due parti di BIANCHINI F.,
GLIOZZO A. M., MATTEUZZI M. (2007), Instrumentum vocale. Intelligenza
artificiale e linguaggio, Bononia University Press, Bologna.
7
Per una trattazione del tema dei concetti da una prospettiva filosofica si
rinvia a COLIVA A. (2004), I concetti, Carocci, Roma.
LA COMPLESSITÀ DELLA CONOSCENZA
8
Cfr. LEIBNIZ G. W. (2008), Ricerche generali sull’analisi delle nozioni e
delle verità e altri scritti di logica, a cura di M. Mugnai, Edizioni della
Normale, Pisa.
CAPITOLO I
9
Il saggio fodoriano maggiormente dedicato all’argomento è FODOR J. A.
(1998), Concepts. Where cognitive science went wrong, Oxford University
Press, New York (tr. it. a cura di S. Levi, Concetti. Dove sbaglia la scienza
cognitiva, McGraw-Hill, Milano, 1999).
10
“Composizionalità: i concetti sono i costituenti dei pensieri e, in
innumerevoli casi, di altri concetti. Le rappresentazioni mentali ereditano il
loro contenuto dal contenuto dei loro costituenti” (FODOR J. A (1998),op. cit.,
p. 27).
LA COMPLESSITÀ DELLA CONOSCENZA
11
Cfr. SEARLE J. R. (1980), “Mind, Brains and Programs”, in The Behavioral
and Brain Sciences, 3, pp. 417-457 (tr. it. di G. Tonfoni, Menti, cervelli e
programmi, un dibattito sull’intelligenza artificiale, CLUP-CLUED, Milano,
1984); SEARLE J. R. (1983), Intentionality. An essay in the philosophy of mind,
Cambridge University press, Cambridge (tr. it. a cura di D. Barbieri, Della
intenzionalità. Un saggio di filosofia della conoscenza, Bompiani, Milano,
1985).
CAPITOLO I
12
Cfr. SEARLE J. R. (2004), Mind. A Brief introduction, Oxford University
Press, Oxford (tr. it. a cura di C. Nizzo, La mente, Raffaello Cortina, Milano,
2005).
13
SEARLE J. R., La mente, p. 170.
LA COMPLESSITÀ DELLA CONOSCENZA
14
DREYFUS H. (1979), What computers can’t do: the limits of artificial
intelligence, Harper & Row, New York (tr. it. Che cosa non possono fare i
computer: i limiti dell’intelligenza artificiale, Armando, Roma, 1988);
DREYFUS H. L. (1981), “From micro-world to knowledge representation: A. I.
at an impasse”, in HAUGELAND J., Mind Design: Philosophy, Psychology,
Artificial Intelligence, MIT Press, Cambridge, Mass., pp. 161-204 (tr. it.
Progettare la mente: filosofia, psicologia, intelligenza artificiale, Il Mulino,
Bologna, 1989, pp. 177-219).
15
Cfr. RUSSELL S., NORVIG P. (2003), Artificial intelligence. A modern
approach, Prentice Hall, Uple Saddle River (ed. it. a cura di F. Amigoni,
Intelligenza artificiale. Un approccio moderno, volume 1, Pearson Italia,
Milano, Torino, 2010, p. 551).
CAPITOLO I
16
Cfr. QUILLIAN M. R. (1967), “Word concepts: A theory and simulation of
some basic semantic capabilities”, in Behavioral Science, 12(5), pp. 410-430;
QUILLIAN M. R. (1968), “Semantic memory”, in Semantic information
processing, pp. 227–270.
LA COMPLESSITÀ DELLA CONOSCENZA
17
MINSKY M. (1975), “A Framework for Representing Knowledge”, in
WINSTON P.H. (ed.), The Psycology of computer vision, McGraw-Hill, New
York, pp. 211-280.
18
Con tutte le caratteristiche delle tassonomie, a cominciare dall’ereditarietà
dei tratti in senso gerarchico.
CAPITOLO I
1919
CORDESCHI R., FRIXIONE M. (2011), “Rappresentare i conetti: filosofia,
psicologia e modelli computazionali”, in Sistemi intelligenti, 23 (1), pp. 31.
20
Per un presentazione di questi argomenti e una relativa bibliografia si rinvia
a GANGEMI A., GLIOZZO A. M. (2007), “Ontologie”, in BIANCHINI F., GLIOZZO
A. M., MATTEUZZI M., (2007), Instrumentum vocale. Intelligenza artificiale e
linguaggio, Bononia University Press, Bologna, pp. 287-308.
LA COMPLESSITÀ DELLA CONOSCENZA
23
L’esempio tipico è nell’argomento proposto da Fodor contro gli effetti
prototipici. Egli sostiene che un “pet fish”, cioè il pesciolino che vive negli
acquari delle abitazioni, non ha (tutti) i tratti tipici del pesce (fish), né quelli
dell’animale domestico (pet).
24
Si pensi solo alla difficoltà di spiegare il requisito, che appare irrinunciabile,
della generalità di un concetto attraverso la teoria dei concetti come collezione
di esemplari (Cfr. MEDIN D. L., SCHAFFER M. M. (1978), “Context theory of
classification learning”, in Psychological Review, 85, pp. 207-238.), tutti
inevitabilmente differenti.
25
Cfr. MURPHY G.L. (2002), op. cit.
LA COMPLESSITÀ DELLA CONOSCENZA
26
Cfr. CORDESCHI R., FRIXIONE M. (2011), op. cit.
CAPITOLO I
27
Cfr. MILLIKAN R. (2000), On clear and confused ideas. An essay about
substance concepts, Cambridge University Press, Cambridge (tr. it. di V.
Zavarella, Delle idee chiare e confuse. Saggio sui concetti di sostanza, ETS,
Pisa, 2003).
28
Cfr. BARSALOU L. (2008), “Grounded Cognition”, in Annual Review of
Psychology, 59, pp. 617-645; BARSALOU L. (2009), “Situating Concepts”, in
ROBBINS P., AYDEDE M. (eds.), The Cambridge Handbook of Situated
Cognition, Cambridge University Press, Cambridge, pp. 236-263. Per questo
filone di indagine si veda anche LIUZZA M. T., CIMATTI F., BORGHI A. M.
(2010), Lingue, corpo, pensiero: le ricerche contemporanee, Carocci, Roma.
LA COMPLESSITÀ DELLA CONOSCENZA
29
Per un’ampia trattazione dal punto di vista storico e teorico dei modelli
della cognizione si veda CORDESCHI R. (2002), The Discovery of the Artificial:
Behavior, Mind and Machines Before and Beyond Cybernetics, Kluwer
Academic Publishers, Dordrecht. Per una discussione sul metodo sintetico
nella scienza cognitiva si rimanda a CORDESCHI R. (2008), “Steps toward the
synthetic method: symbolic information processing and self-organizing
systems in early Artificial Intelligence”, in HUSBANDS P., HOLLAND O. AND
WHEELER M. (eds.), The Mechanical Mind in History, The MIT Press,
Cambridge, Mass., pp. 219-258.
CAPITOLO I
30
Cfr. RUMELHART D.E., MCCLELLAND J. L. AND THE PDP RESEARCH GROUP
(1986), Parallel distributed processing, MIT Press, Cambridge, Mass. (tr. it.
parziale, PDP, microstruttura dei processi cognitivi, Il Mulino, Bologna,
1991).
LA COMPLESSITÀ DELLA CONOSCENZA
31
Per un’introduzione si rimanda a FLOREANO D., MATTIUSSI C. (2002),
Manuale sulle reti neurali, 2 ed., Il Mulino, Bologna.
32
Ad esempio le reti auto-associative di POLLACK J. (1990), “Recursive
Distributed Representations”, in Artificial Intelligence, 46, pp. 77-105.
33
In un modello subsimbolico, i nodi della rete possono rappresentare singoli
concetti (in questo caso la rappresentazione è locale) oppure possono non
essere individuabili come, o associabili a, unità della rete (in questo caso la
CAPITOLO I
36
Cfr. HOFSTADTER D. R. & FARG (1995). Fluid Concepts and Creative
Analogies: Computer Models of the Foundamental Mechanisms of Thought,
Basic Books, New York (tr. it. di M. Corbò, I. Giberti, M. Codogno, Concetti
fluidi e analogie creative. Modelli per calcolatore dei meccanismi
fondamentali del pensiero, Adelphi, Milano, 1996).
37
Non a caso, uno dei primi modelli sviluppati da Hofstadter e collaboratori è
riportato già nella prima edizione del volume di Bocchi e Ceruti del 1985
dedicato alla complessità. Cfr. BOCCHI G., CERUTI M. (2007), Le sfide della
complessità, Bruno Mondadori, Milano, pp. 274-309.
CAPITOLO I
38
MITCHELL M. (2006), “Complex systems: Network thinking”, in Artificial
Intelligence, 170, 18, pp. 1194-1212.
39
Cfr. HÖLLDOBLER B., WILSON E. O. (2009), The Superorganism. The
Beauty, Elegance, and Strangeness of Insect Societies, W. W. Norton &
Company, New York (tr. it. di I. Blum, Il superorganismo, Adelphi, Milano,
2011).
40
Cfr. LAWSON J., LEWIS J. (2004), “Representation Emerges from Coupled
Behavior”, in Workshop Proceedings of the 2004 Genetic and Evolutionary
Computation Conference. June 26-30.
LA COMPLESSITÀ DELLA CONOSCENZA