a
Tesina di approfondimento per il
orso di Ciberneti
a Generale II
Alessio Cimarelli
Sommario
1 Introduzione 3
2 Memoria a breve termine 4
3 Memoria a lungo termine 6
3.1 Modello di Tulving . . . . . . . . . . . . . . . . . . . . . . . . 6
4 Memoria semanti
a 8
4.1 Semanti
a e
on
etti . . . . . . . . . . . . . . . . . . . . . . . 8
4.2 Reti semanti
he . . . . . . . . . . . . . . . . . . . . . . . . . . 11
4.2.1 Modelli a rete gerar
hi
a . . . . . . . . . . . . . . . . . 12
4.2.2 Modello di Collins-Loftus . . . . . . . . . . . . . . . . . 13
4.2.3 Semanti
features-
omparison model . . . . . . . . . . 13
4.2.4 Modelli asso
iativi . . . . . . . . . . . . . . . . . . . . 14
4.2.5 Modelli statisti
i . . . . . . . . . . . . . . . . . . . . . 15
4.3 Appli
azioni e
uriosità . . . . . . . . . . . . . . . . . . . . . . 17
A Spreading a
tivation 18
B Priming 19
C Apprendimento Hebbiano 20
2
Capitolo 1
Introduzione
3
Capitolo 2
Memoria a breve termine
4
• Cir
uito arti
olatorio per la memorizzazione in forma verbale (
i
lo
fonologi
o).
5
Capitolo 3
Memoria a lungo termine
6
• Memoria semanti
a:
os
iente, riguarda l'organizzazione e gestione
(immagazzinamento e re
upero) delle informazioni generali sul mon-
do (
on
etti) ra
olte mediante l'esperienza ed è per questo alla ba-
se della
omprensione. Nel re
upero permette di esprimere
onos
en-
ze a pres
indere dai parti
olari del loro apprendimento, è essibile e
relativamente rapida.
• Memoria pro
edurale: sub
os
iente,
ontrolla le risposte
omporta-
mentali a stimoli parti
olari e pre
isi e i
omportamenti automati
i. È
però ad un livello più avanzato del puro istinto, per
hé i
omportamenti
possono essere appresi e dimenti
ati. È di tipo pres
rittivo, piuttosto
rigida e rapida.
• Rappresentazione
7
Capitolo 4
Memoria semanti
a
8
ni linguisti
he espli
ite. Indizi su questi me
anismi vengono prin
ipalmente
da tre fenomeni linguisti
i:
• ambiguità lessi
ale;
• essibiltà semanti a;
Nel primo
aso una stessa forma fonologi
a (omofonia) o ortogra
a (omo-
graa) viene impiegata in una lingua per denotare entità distinte. L'ambi-
guità non è però ristretta al solo lessi
o, ma si in
ontra a tutti i livelli nei
quali si può analizzare una lingua:
• l. per
ettivo (il frammento di parlato /visitedi/);
• mes
olamento di livelli (il termine porto oppure la frase la ve
hia porta
la sbarra ).
Solitamente è il
ontesto
he permette la disambiguazione, ma non 'e
hiaro quando e
ome l'informazione di
ontesto viene usata. Solitamente si
fa riferimento a tre ipotesi:
• modello esaustivo: in una prima fase (a
esso) vengono attivati tutti
i signi
ati della parola, su
essivamente (interpretazione) viene sele-
zionato il signi
ato
ontestualmente pertinente da un
onfronto
on i
signi
ati di tutte le altre parole nella frase;
• modello a ri
er
a ordinata: tutti i signi
ati della parola vengono presi
in
onsiderazione sequenzialmente in ordine de
res
ente di frequenza,
no a
he non ne viene selezionato uno pertinente;
• modello ad a
esso selettivo: la presenza di
hiare informazioni
onte-
stuali permette un a
esso diretto e selettivo al signi
ato della parola
più pertinente, an
he se non è quello dominante.
9
instanziazione
he permette di adattare la proprietà lle
aratteristi
he del
nuovo
on
etto. Le interpretazioni di termini
ome alto, grande, e
. variano
a se
onda dei
ontesti.
Tutto
iò porta alla
on
lusione
he la rappresentazione mentale, punto
d'arrivo del pro
esso di
omprensione, è
ostruita prevalentemente sulla base
di informazioni linguisti
he
ontenute nella frase, ma in
lude an
he infor-
maziooni inferite, non presenti espli
itamente nella struttura letterale della
frase.
Una volta
ostruiti, i
on
etti sono le unità di base della memoria seman-
ti
a e
ostituis
ono la nostra
onos
enza di base.
Se ne rilevano tre aspetti fondamentali:
• sono gli strumenti
ognitivi
he rendono possibile l'ese
uzione di ope-
razioni mentali;
• hanno un ruolo
entrale nei pro
essi di
lassi
azione e
ategorizzazio-
ne;
• si relazionano
on gli altri
on
etti.
10
• modelli della rappresentazione astratta: le informazioni sono mante-
nute in memoria in un formato amodale, slegato dai parti
olari senso-
motori delle entit rappresentate;
11
proprietà (ovvero mediante la sua posizione all'interno della rete). L'a
u-
mulo di esperienze riguardo un
on
etto, quindi, si tradu
e in un aumento
della sua
onnettività all'interno della rete e le sue
onnessioni denis
ono il
suo signi
ato.
12
I limiti delle reti gerar
hi
he sono nella loro in
apa
ità di prevedere errori
di asso
iazione o di valutare più rapidamente una asso
iazione falsa. In più
non tutte le
ategorie possono essere rappresentate in una forma gerar
hi
a,
adatta per
on
etti di tipo tassonomi
o
ome animale, ma non per
on
etti
più astratti.
13
Questo modello, oltre a spiegare il priming, ammette risposte errate nel
aso in
ui venga bypassata la fase 2. Inoltre se in quest'ultima sono presi in
onsiderazione
on
etti generali (parte alta della gerar
hia), il
onfronto tra
le loro proprietà è molto più velo
e. Così
ome avviene per la valutazione di
asso
iazioni false.
SAM
Nel modello SAM (Sear
h of Asso
iative Memory), quando due
on
etti o
-
upano nello stesso momento il buer della memoria di lavoro (i loro nodi
orrispondenti sono e
itati), la loro asso
iazione viene rinforzata. Stessa
o-
sa avviene per le asso
iazioni tra i
on
etti e il
ontesto (variamente denito)
in
ui si presentano.
In questo modo, al termine del pro
esso di apprendimento, la forza delle
onnessioni indi
a le relazioni semanti
he tra
on
etti e tra essi e il
ontesto.
ACT e ACT-R
I modelli ACT (Adaptive Control of Thought) o i su
essivi ACT-R (Adapti-
ve Control of Thought-Rational) possono essere visti e deniti
ome un modo
di spe
i
are
ome il
ervello stesso è organizzato, in grado da attivare i pro-
essi individuali per la produzione del pensiero. L'assunto più importante
su
ui si basano è
he la
onos
enza umana si possa dividere in due tipi di
rappresentazione irridu
ibili: quella di
hiarativa e quella pro
edurale.
La prima è rappresentata mediante
hunks,
ollegamenti tra
hunks e loro
proprietà,
he insieme
ostituis
ono una rete semanti
a dinami
a. Infatti
l'attivazione di un nodo de
res
e
on il tempo dal momento del suo primo
ri
hiamo e aumenta inve
e
on il numero di ri
hiami su
essivi. Risente an
he
di un eventuale rumore gaussiano di fondo e delle e
o di attivazione dei nodi
(semanti
amente) vi
ini.
14
I
hunks sono gestiti da buers
he fungono da front-end di due tipi di
moduli:
• per
ettivi-motori,
ostituis
ono le interfa
e
on il mondo reale (soprat-
tutto visive e manuali);
• memorie, a loro volta di due tipi:
LSA
Il modello più popolare va sotto il nome di Latent Semanti
Analysis (LSA,
te
ni
a molto usata nella produzione del linguaggio naturale), in
ui la ma-
tri
e è
omposta da un vo
abolario di parole (elementi) legate ai do
umenti
(
ontesti) in
ui
ompaiono. Ogni elemento della matri
e indi
a l'o
or-
renza di ogni termine in ogni do
umento. Dopo aver P
al
olato la matri-
e, vi si appli
a laP funzione M = ln(1 + M )/ − [P (i|t) ln P (i|t)],
on
′
15
Su
essivamente si appli
a una De
onvoluzione a Singolo Valore (SVD)
alla matri
e trasformata per ridurne le dimensioni e
osì individuare gruppi di
rappresentazioni semanti
he e asso
iazioni indirette tra gli elementi. Queste
trasformazioni legano la matri
e di o
orrenza dei termini ad un
erto numero
di
on
etti (
lustering e
lassi
ation ) e questi ai do
umenti, pesando ogni
termine
on la propria abilità di predire un
ontesto. A questo punto ogni
elemento è rappresentato in memoria da un vettore
ontestuale e il grado
di similitudine semanti
a tra due termini è dato sempli
emente dal
oseno
dell'angolo tra i due vettori (
i si basa sul fatto
he termini simili
ompaiano
sempre in
ontesti simili).
Mediante LSA possono essere arontati diversi
ompiti di grande interes-
se:
•
omparazione di do
umenti in uno spazio
ontestuale;
HAL
Nei modelli
he vanno sotto il nome di Hyperspa
e Analogue to Language
(HAL) gli elementi sono parole e i
ontesti sono l'insieme delle parole
he
sono loro adia
enti in un testo. La matri
e di o
orrenza in questo
aso è
quadrata (N xN
on N numero di parole nel vo
abolario) e il
ontesto è dato
da un parametro esterno (normalmente le die
i parole attorno a quella data).
Gli elementi della matri
e sono una funzione del numero di volte in
ui
due parole appaiono
ontemporaneamente nello stesso
ontesto e della loro
16
distanza re
ipro
a (tipi
amente ogni in
remento è dato da D = 11 − d
on d
distanza tra le parole).
Dopo aver eventualmente appli
ato la SVD alla matri
e, la distanza se-
manti
a tra due termini è data dal
oseno tra i vettori
ontestuali
he li
rappresentano (questa volta si suppone
he termini simili appaiano insieme
alle stesse parole).
...
17
Appendi
e A
Spreading a
tivation
18
Appendi
e B
Priming
19
Appendi
e C
Apprendimento Hebbiano
La teoria Hebbiana des
rive un me
anismo basilare della plasti
ità sinapti
a
per
ui un aumento dell'e
a
ia sinapti
a deriva da una ripetuta e persistente
stimolazione della
ellula postsinapti
a da parte di quella presinapti
a.
Dal punto di vista delle reti neurali arti
iali, il prin
ipio di Hebb des
rive
un metodo per determinare
ome alterare i pesi tra i neuroni durante la fase
di apprendimento. Il peso della sinapsi viene aumentato se i due neuroni ai
suoi estremi si attivano simultaneamente, ed è ridotto altrimenti. Nodi
he
tendono ad essere entrambi positivi o negativi nello stesso momento avranno
forti pesi sinapti
i dello stesso segno.
Questo prin
ipio generale fornis
e il metodo più sempli
e per la modi
a
dei pesi di una rete e per questo è relativamente fa
ile da implementare
in una simulazione, ma ne limita le appli
azioni. Oggi si usa il termine
apprendimeno hebbiano per un qualsiasi metodo matemati
o di modi
a dei
pesi delle sinapsi, an
he diverso da quello di base appena des
ritto.
E
o al
uni esempi di possibili traduzioni matemati
he del prin
ipio:
• wij = xi xj
1 Pp
• wij = n k=1 xki xkj
P
• ∆wi = ηxi · j wj x j
20