Sei sulla pagina 1di 13

2.

LA VERIFICA EMPIRICA DEL SENTIERO DI BIOPOLI

2.1. Introduzione.

2.1.1. Questioni di metodo.

Vedi figura seguente (descrivere). Evidenziare che esistono ormai molte metodologie - sebbene
disomogenee e basate su metodi molto diversi fra loro - per poter tentare una prima verifica emnpirica
delle teorie riportate nella “prima parte”.

Il rilievo L'analisi formale


La teoria di biopoli empirico-sperimentale

Il mondo fluido Le mappe “hotspot Supporto alla


Lo “spazio-curvo” Abaco/mappa della
della densità delle foto valutazione della qualità dei tessuti
della fruizione su social qualità dei
urbana urbani
Lo spazio-tempo network tessuti urbani

Percezione della Saliency map


forma Focus of Attention
Processo Supporto alla Abaco dei
identificazione dei patten
bottom-up Analisi dei video
pattern
percezione Virtual
Emozione Reality

Qualità dello spazio Sentiment analysis Supporto alla


Accoppiamento Spazio di qualità Differenziale semantico progettazione dei Progetto
Empatico mondo A-venire Questionari pattern

2.1.2. Lo spazio tempo nei cosiddetti big data, ovvero il concetto di Informazione Geografica
Volontaria.

Concetti chiave:
Informazioni geografiche volontarie (Volunteered Geographic Information VGI): Le informazioni
geografiche generate dagli utenti web, in assenza di strutture formali di riferimento, hanno
caratteristiche di caoticità: flussi di informazioni nascono e si muovono in diverse direzioni,
incrociandosi e scambiandosi contenuti, fino a perdere ogni separazione tra produzione e consumo
e a giustificare le ormai diffuse nozioni di produser (Bruns, 2006) e di produsage . Nonostante la
disorganizzazione e l’eterogeneità che caratterizzano queste informazioni, la loro produzione è
diventata con gli anni un fenomeno talmente esteso da destare l’interesse della comunità
scientifica e dei soggetti storicamente impegnati nella creazione e distribuzione di informazione
geografica (Borruso, 2013).
In termini di informazioni geografiche volontarie, attualmente stiamo assistendo ad un rapido aumento
delle fonti di dati disponibili. Da un lato, ciò deriva da applicazioni di social media come Twitter, Flickr
o Facebook, che forniscono informazioni geografiche collettive interrogabili tramite Interfacce di
Programmazione (API) pubbliche. Dall'altro lato, stiamo vedendo una crescente volontà delle persone a
contribuire attivamente condividendo le proprie esperienze di fruizione dello spazio urbano, rurale e
naturale in un contesto di utilizzo, che ricade sotto l'ampio termine "Persone come sensori".
Cultura partecipativa: Con cultura partecipativa (in inglese Partecipatory Culture) ci si riferisce alla
svolta partecipativa relativa ai pubblici dei media, cioè all'insieme di quelle pratiche che si strutturano
attorno a media e linguaggi mediali promosse da individui che non si limitano a comportarsi come
semplici consumatori, ma che assumono il ruolo attivo di produttori.
Produser e Produsage: Bruns descrive la valorizzazione degli utenti come “diversa dal tipico top-down
nei tradizionali spazi mediali”[5]. Quando i consumatori sono anche in qualche modo produttori e
viceversa, si ha il produsage, eliminando così il bisogno di interventi dall’alto verso il basso. La
collaborazione di ogni partecipante si basa sul principio di inclusività: ogni membro contribuisce con
informazioni di valore che gli altri possono utilizzare, cambiare o aggiungere a qualcos’altro.
Web 2.0: Il Web 2.0 è un'espressione utilizzata spesso per indicare uno stato dell'evoluzione del World
Wide Web, rispetto a una condizione precedente. Si indica come Web 2.0 l'insieme di tutte quelle
applicazioni online che permettono un elevato livello di interazione tra il sito web e l'utente come i
blog, i forum, le chat, i wiki, le piattaforme di condivisione di media come Flickr, YouTube, Vimeo, i
reti sociali come Facebook, Myspace, Twitter, Google+, Linkedin, Foursquare, ecc., in
contrapposizione al cosiddetto Web statico o Web 1.0.
Neogeografia: Neogeografia o nuova geografia si riferisce al fenomeno sociale dell'uso di massa delle
mappe virtuali e della creazione di contenuti informatici di carattere spaziale con l'ausilio dei moderni
dispositivi GPS di larga diffusione. Ciò deriva dal crescente interesse pubblico al mondo della
cartografia virtuale di libero accesso e della condivisione delle informazioni.
Persone come sensori. (human sensor). Recentemente una grande attenzione è stata dedicata al
concetto di reti di sensori. Gli è possibile costruire una tipologia formata da tre tipi di reti di sensori. Il
primo tipo, a carattere globale persegue obiettivi di monitoraggio ambientale e della Terra, così come
obiettivi strategici, ed è basato sulla installazione di reti di sensori di tipo globale satellitare.. Meno
comunemente citati sono sensori trasportati da esseri umani, veicoli o animali. Ad esempio, molto utile
ricerca sta emergendo da progetti che hanno equipaggiato i bambini con sensori di inquinamento
atmosferico, nel tentativo di comprendere i fattori che influenzano l'asma. Un terzo tipo di rete di
sensori e, in molti modi, il più interessante, è costituito dagli esseri umani, ognuno dotato di un
sottogruppo di lavoro dei cinque sensi e con l'intelligenza per compilare e interpretare ciò che sente, e
ciascuno libero a scavare la superficie di il pianeta. Questa rete di sensori umani ha oltre 6 miliardi di
componenti, ciascuno di essi sintetizzatore intelligente e interprete di informazioni locali. Si può vedere
VGI come un uso efficace di questa rete, abilitata da Web 2.0 e la tecnologia della comunicazione a
banda larga.

2.2. La mappa delle foto del social network Flickr

2.2.1. Comportamento e motivazione degli utenti del social network Flickr

Secondo Nov et al. (2010) i dati fotografici riversati sulla piattaforma Flickr sottointendono un
processo individuale scindibile in due fasi principali: a) la fase tecnico-creativa di scattare la foto; b) la
fase sociale di condivdere tale foto associando ad essa delle informazioni di commento.
Scattare una foto richiede una decisione attiva. Lynch suggerisce che ““[. . .] the generalized mental
picture of the exterior physical world that is held by an individual [. . .] is the product both of
immediate sensation and of the memory of past experience, and it is used to interpret information and
to guide action” (Lynch, 1960: p. 4). In generale, (Collier, 1967; Sontag, 1977; Dakin, 2003; Scott e
Canter, 1997), l’azione di scattare una foto non è solo legata alle caratteristiche dell’ambiente
circostante, ma coinvolge tutti gli aspetti della cognizione interpretativa che l’individuo applica a tale
spazio (preferenze personali, memorie, opinioni, ecc.). Quindi sia l’atto di scattare una foto in un luogo,
sia la conseguente azione di scegliere quali foto condividere sulla piattaforma del social network
riflettono la qualità della percezione che l’individuo ha del luogo.

Introdurre la mappa di densità di foto

La seconda fase, cioè l’aggiunta di un commento alla foto consente al fotografo di comunicare con gli
altri gli aspetti significativi rappresentati dall’immagine. I commenti (Tags) sono liste di parole che
descrivono non sologli elementi fisici rappresentati, ma anche delle informazioni concettuali
interpretative dell’ambiente fotografato. (vedi Crandall, Backstrom, Huttenlocher, & Kleinberg, 2009).
Il commentare coinvolge diversi processi mentali: contrariamente alla percezione diretta, il commento
viene assegnati in un momento successivo, ed è quindi basato sia sulla foto sia sulla memoria del
fotografo relativamente alla scena.
I commenti, oltre a riguardare elementi potenzialmente visibili, possono anche descrivere aspetti
associati. In particolare i commenti possono funzionare come artefatti di concettualizzazione personale
dell'utente e l'astrazione del mondo (Dror & Harnad, 2008, p. 93).
La conclusione rilevante per l'analisi in questo lavoro è la seguente. Se più persone prendono fotografie
in un luogo, le fotografie possono essere collegate ad una caratteristica specifica visibile o associata (o
l'assenza di caratteristiche) che avvia lo stesso processo decisionale per quel luogo o area. Maggiore è
numero di persone che seguono questo modello, più significativa potrebbe essere la caratteristica di
fondo. Lo stesso vale per i commenti come descrittori semantici della scena memorizzata in astratto.
L’utilizzo ripetuto di un certo termine nel commento relativo ad una particolare zona può ricondurre a
processi percettivi e cognitivi simili innescati in gruppi o sottogruppi di persone nel loro rapporto con
lo spazio circostante.
Si può quindi ipotizzare di disegnare una “mappa di commenti” generata da dati geografici di foto
condivise e di impiegarla come strumento informativo nel processo di pianificazione dello spazio.

Introdurre l'analisi testuale dei tags.

2.2.2. La mappa di densità di foto (hotspot).

2.2.2.1. Questioni di metodo.

Un po' di rassegna teorica.

2.2.2.2. L'applicazione alla città di Livorno.

2.2.3. L'analisi dei tags

2.2.3.1. Questioni di metodo.

Un po' di rassegna teorica.

2.2.3.2. L'applicazione alla città di Livorno.


2.2.4. Sentiment analysis dei tags.

2.2.3.1. Questioni di metodo.

Un po' di rassegna teorica.

2.2.3.2. L'applicazione alla città di Livorno.

Bibliografia

Nov, O., Naaman, M., & Ye, C. (2010). Analysis of participation in an online photo-sharing
community: A multidimensional perspective. Journal of the American Society for Information Science
and Technology, 61(3), 555–566.
Lynch, K. (1960). The image of the city. Cambridge, MA: MIT Press.
2. x. Le saliency map come modello di percezione dello spazio urbano.

2.x.1. Introduzione.

Quando si osservano un qualsiasi ambiente, come per esempio lo spazio urbano, i movimenti degli
occhi non sono sempliocemente un insieme di fissazioni casuali. Invece, le localizzazioni in cui si
sofferma lo sguardo e quindi l'attenzione dell'osservatore si esplicano attraverso un modello specifico
(Humphrey & Underwood, 2009). Infatti la selezione di luoghi ossevati avviene secondo una strategia
specifica, integrata nel sistema nervoso umano (Harel, Koch, & Perona, 2012).

La complessità e la varietà degli stimoli che lo spazio che ci circonda propone comporterebbe la
elaborazione di una grande quantità di informazione la maggior parte delle quali inutili. Poiché sarebbe
cerebralmente troppo impegnativo per elaborare la quantità massiva di informazioni sensoriali in
ingresso, il nostro sistema nervoso decide costantemente le informazioni selezionate per un'ulteriore
elaborazione più dettagliata e quelle da scartare. Inoltre, le informazioni selezionate vengono
inconsciamente classificate per priorità. Le più importanti verranno elaborate prioritariamente, le meno
importanti saranno “processate” in seguito. Questo processo è chiamato "attenzione selettiva". Poiché
consapevolmente (Harel et al., 2012), solo una piccola parte delle informazioni in arrivo raggiungerà
così la “consapevolezza visiva” (Crick & Koch, 1998; Desimone & Duncan, 1995).

Ciò significa che quando si osservano lo spazio che ci circonda, l'attenzione verrà assegnata solo ad una
parte limitata dell'area sottesa dallo sguardo. Due aspetti principali influenzano l'allocazione
dell'attenzione: il contenuto della scena (il cosiddetto, processo a basso livello o bottom-up) e le
caratteristiche cognitive dell'osservatore (il processo di alto livello o top-down) (Rajashekar, van der
Linde, Bovik, & Cormack, 2008). Mentre il processo a basso livello è rapido e sempre operativo il
meccanismo top-down diventa predominante solo nel caso di attività che, per la loro natura,
necessitano di attenzione cognitiva specifica (Borji, Sihite & Itti, 2013; Land & Hayhoe, 2001;
Navalpakkam & Itti , 2005; Parkhurst, Law, & Niebur, 2002; Rajashekar et al., 2008; Yarbus, 1967).
Nel caso particolare dello spazio urbano, i processi bottom-up genereranno prevalgono in quanto le
persone osservano liberamente la scena ce li circonda in modo libero e senza uno specifico obbiettivo
(Dupont, Antrop, & Van Eetvelde, 2014). Di conseguenza, la distribuzione delle localizzazioni che
generano maggiore attenzione (su cui si sofferma lo sguardo) sarà principalmente guidata dal contenuto
dello stimolo visivo. Per identificare in modo rapido e sistematico queste aree di interesse uno
strumento di particolare interesse recentemente proposto anche per l'analisi paesaggistica è
rappresentato dalle cosiddette “saliency map”, che possono essere descritte come mappe di messa a
fuoco computazionali, che codificano per cospicuità o salienza in ogni posizione in un'immagine in
modalità bottom-up, (Itti, Koch, & Niebur, 1998; Itti & Koch, 2000; Itti, 2005).
La salienza (“saliency” o rilevanza) è definita come la distinzione della qualità percettiva con la quale
un elemento nel mondo si distingue dai suoi vicini e perciò attrae immediatamente l'attenzione (Itti,
2007). Secondo gli autori citati tale salienza di un pattern può essere calcolata in base alle informazioni
relative al colore, all'orientamento e all'intensità rispetto allo spazio circostante (Itti & Koch, 2001;
Koch & Ullman, 1985; Peters, Iyer, Itti & Koch, 2005).
Oggetti che sono in netto contrasto o appaiono incongruenti al loro ambiente saranno così "scontornati"
nella saliency e potranno in questo modo essere identificati. E' da sottolineare che la salienza può
scaturire da una percezione che il soggetto valuta positivamente ma anche negativamente. In altre
parole si identificano i punti di attenzione, ma non si definisce la “polarità” positiva o negativa di tale
attenzione.
Questa tecnica potrebbe essere utile nella pianificazione del paesaggio urbano e rurale, nella sua
progettazione, e in particolare nelle valutazioni d'impatto visivo di nuovi scenari progettuali.

2.x.2. La teoria della Salienza.

La salienza è basata esclusivamente sul processo di basso livello o bottom-up (Itti et al., 1998), che è
un meccanismo veloce e sensibile agli stimoli primari (Parkhurst et al., 2002). In particolare, se
applicato ad immagini percepite, per ogni pixel dell'immagine la salienza è calcolata in base alla sua
intensità, al suo colore,all'orientamento e alla forma rispetto all'ambiente circostante (Itti & Koch,
2000; Itti & Koch, 2001; Koch & Ullman, 1985).
Sulla base di specifi algoritmi di image analysis, ogni pixel dell'immagine originale viene attribuito un
valore scalare che indica il suo “grado di salienza” (Itti, 2005; Peters et al., 2005). Poiché l'occhio
umano tende ad essere attratto da oggetti salienti nell'ambiente visivo (Itti, 2005), l'attenzione verrà
prima attratta dalla regione più alto livello di salienza. Se esistono in una scena più localizzazioni
salienti queste dovrebbero essere percepite in base al relativo livello. (Humphrey & Underwood, 2009).
Questo comportamento istintivo dell'occhio è completamente guidata da meccanismi bottom-up (Itti et
al., 1998; Malcolm & Henderson, 2010). Lo spostare l'attenzione da queste regioni richiederà quindi
uno sforzo volontario e consapevole ("top-down"), magari dovuto a processi cognitive derivanti da
motivi specifici di analisi dello spazio circostante (Itti & Koch, 2000; Itti & Koch, 2001; Nothdurft ,
2005; Treisman & Gelade, 1980). Secondo gli autori citati però il processo di basso livello non può mai
essere completamente escluso (Parkhurst et al., 2002; Navalpakkam & Itti, 2005, Rajashekar ed altri,
2008, Yarbus, 1967).
La efficienza dei diversi algoritmi esistenti per l'individuazione delle mappe di salienza è testata
attraverso studi empirici di correlazione con l'effettivo comportamento dell'occhio umano rilevato su un
campione di soggetti (ad esempio, Borji, Sihite, et al., 2013; Humphrey & Underwood, 2009; Parkhurst
et al., 2002; Peters Et al., 2005).

Tra i diversi possibili algoritmi di salienza l'algoritmo (Graph-Based Visual Saliency) sviluppato da
Harel, Koch, e Perona (2006) e disponibile su piattaforma MatLab (Harel, 2012) è quello che ha
dimostrato di produrre i più alti coefficienti di correlazione con il comportamento rilevato dall'occhio
umano su scene di paesaggio aperto rurale e urbano (Borji, Tavakoli, Sihite & Itti, 2013; Harel et al.,
2006).

2.x.3. Il metodo GBVS.

Il metodo GBVS rappresenta il più recente tentativo di ricotruire il processo istintivo di basso livello
nella individuazione delle localizzazioni su cui si concentra l'attenzione nello spazio geografico
rappresentato in una immagine.

Il metodo è stato proposto da Itti & Koch basandosi sui concetti riguardanti i meccanismi neurali
definiti da Koch e Ullman nel 1985. L’algoritmo è legato alla cosiddetta Feature Integration Theory
(FIT), proprosta per spiegare la strategia di ricerca visiva umana. In questa tecnica, l’input visivo
(immagine RGB) viene suddiviso in immagini multiscala che descrivono le varie componenti
percettive, ovvero: intensità, colore ed orientazione. Per ognuna di queste componenti, viene creata una
mappa (feature map) che ne descrive la salienza. La salienza viene definita in modo tale che solo i
punti che a livello locale si distinguono dai circostanti persistono. Una volta determinate queste mappe,
vengono inglobate mediante tecniche bottom-up (dal basso verso l’alto) in un’unica mappa, la mappa
di salienza appunto (immagine a scala di grigi), che ha il compito di descrivere la selective attention
umana.

Lo studio di Koch e Ullman era puramente concettuale. La prima implementazione effettiva di una
mappa di salienza è stata descritta da Niebur e Koch (1996). Essi hanno applicato il loro modello di
mappa saliente che ha fatto uso del colore, dell'intensità, dell'orientamento e dei motivi, sia per
l'introduzione visiva semplificata (come è usata tipicamente negli esperimenti psicofisici) sia per le
scene naturali complesse e hanno dimostrato scansione sequenziale della scena visiva relativamente
alle zone nelle quali si concentra l’attenzione focale (focus of attention, FOA) in ordine di diminuzione
Salience .
2.x.4. L'applicazione della metodologia.

Nell'analisi della percezione dello spazio urbano ella città di livorno il metodo Graph-Based Visual
Saliency è stato applicato per analizzare la percezione dello spazio urbano degli intervistati registrando
in un video le scene inquadrate durante l'esperienza di Virtual Reality.
Il metodo GBVS e gli algoritmi disponibili per il calcolo delle Saliency map sono stati originariamente
pensati per l'analisi di immagini digitali. Per poterlo adattare ad un video sono stati sistematicamente
estratti 10 fotogrammi al minuto (uno ogni 6 secondi) ed è stata calcolata la Saliency map di ogni
fotogramma. I fotogrammi sono stati successivamente integrati in una GIF animata.

E' stata inoltre realizzata la scansione delle zone nelle quali maggiormente si concentra l'attenzione
focale (FOA) per le due scene maggiormente percepite dall'intervistato.

2.x.5. Discussione dei risultati.


Bibiografia.

Appleton, J. (1975). The experience of landscape. London and New York: Wiley. Becker, M. W.,
Pashler, H. I., & Lubin, J. (2007). Object-intrinsic oddities draw early saccades. Journal of
Experimental Psychology: Human Perception and Performance, 33(1), 20–30. 25
Bishop, I. D. (2002). Determination of thresholds of visual impact: The case of wind turbines.
Environment and Planning B: Planning and Design, 29, 707–718.
Borji, A., Sihite, D. N., & Itti, L. (2013). What stands out in a scene? A study of human explicit
saliency judgment. Vision Research, 91, 62–77.
Borji, A., Tavakoli, H.R., Sihite, D.N., Itti, L. Analysis of scores, datasets, and models in visual
saliency prediction. IEEE International Conference on Computer Vision. (2013b). DOI
10.1109/ICCV.2013.118.
Braun, J., & Julesz, B. (1998). Withdrawing attention at little or no cost: Detection and discrimination
tasks. Perception & Psychophysics, 60, 1–23.
Crick, F., & Koch, C. (1998). Constraints on cortical and thalamic projections: The no-strong-loops
hypothesis. Nature, 391, 245–250.
Desimone, R., & Duncan, J. (1995). Neural mechanisms of selective visual attention. Annual Review
of Neuroscience, 18, 193–222.
Duchowski, A. (2007). Eye tracking methodology: Theory and practice. London: Springer.
Dupont, L., Antrop, M., & Van Eetvelde, V. (2014). Eye-tracking analysis in landscape perception
research: Influence of photograph properties and landscape characteristics. Landscape Research, 39(4),
417–432.
Dupont, L., Antrop, M., & Van Eetvelde, V. (2015). Does landscape related expertise influence the
visual perception of landscape photographs? Implications for participatory landscape planning and
management. Landscape and Urban Planning, 141, 68–77.
Dupont, L., Ooms, K., Duchowski, A. T., Antrop, M., & Van Eetvelde, V. (2015). Investigating the
visual exploration of the rural-urban gradient using eye-tracking. Spatial Cognition and Computation,
under review
Español, I. (1995). Impacto ambiental. Monografías de la ETSI caminos, canales y puertos. Madrid:
Universidad Politécnica de Madrid.
Foulsham, T., & Underwood, G. (2008). What can saliency models predict about eye movements?
Spatial and sequential aspects of fixations during encoding and recognition. Journal of Vision, 8, 1–17.
García, L., Hernández, J., & Ayuga, F. (2003). Analysis of the exterior colour of agroindustrial
buildings: A computer aided approach to landscape integration. Journal of Environmental Management,
69, 93–104.
García, L., Hernández, J., & Ayuga, F. (2006). Analysis of the materials and exterior texture of agro-
industrial buildings: A photo-analytical approach to landscape integration. Landscape and Urban
Planning, 74, 110–124.
García-Moruno, L., Montero-Parejo, M. J., Hernández-Blanco, J., & López-Casares, S. (2010).
Analysis of lines and forms in buildings to rural landscape integration. Spanish Journal of Agricultural
Research, 8(3), 833–847.
Haass, M. J., Matzen, L. E., McNamara, L. A., & Czuchlewski, K. R. (2015). Saliency estimation for
advanced imaging scenes using pixel statistics. Abstracts of the 18th European Conference on Eye
Movements, Vienna. Journal of Eye Movement Research, 8(4), 25.
Harel, J. A Saliency implementation in Matlab. (2012).
Harel, J., Koch, C., Perona, P. Graph-based visual saliency. Proceedings of Neural Information
Processing Systems (NIPS), (2006); 545–552.
Harel, J., Koch, C., Perona, P. Saliency map tutorial. (2012).
Hernández, J., García, L., & Ayuga, F. (2004). Assessment of the visual impact made on the landscape
by new buildings: A methodology for site selection. Landscape and Urban Planning, 68, 15–28.
Hikosaka, O., Miyauchi, S., & Shimojo, S. (1996). Orienting a spatial attention-its reflexive,
compensatory, and voluntary mechanisms. Cognitive Brain Research, 5, 1–9.
Humphrey, K., & Underwood, G. (2009). Domain knowledge moderates the influence of visual
saliency in scene recognition. British Journal of Psychology, 100, 377–398.
Inhoff, A. W., & Radach, R. (1998). Definition and computation of oculomotor measures in the study
of cognitive processes. In G. Underwood (Ed.), Eye guidance in reading, driving and scene perception
(pp. 29–53). New York: Elsevier.
Itti, L. (2005). Models of bottom-up attention and saliency. In L. Itti, G. Rees, & J. K. Tsotsos (Eds.),
Neurobiology of attention (pp. 576–582). San Diego: Elsevier.
Itti, L. (2007). Visual salience. Scholarpedia, 2(9), 3327.
Itti, L., & Koch, C. (2000). A saliency-based search mechanism for overt and covert shifts of visual
attention. Vision Research, 40, 1489–1506.
Itti, L., & Koch, C. (2001). Computational modelling of visual attention. Nature Reviews
Neuroscience, 2, 194–203.
Itti, L., Koch, C., & Niebur, E. (1998). A model of saliency-based visual attention for rapid scene
analysis. IEEE Transactions on Pattern Analysis and Machine Intelligence, 20(11), 1254–1259.
Jacob, R. J. K., & Karn, K. S. (2003). Eye tracking in human-computer interaction and usability
research: Ready to deliver the promises. In J. Hyönä, R. Radach, & H. Deubel (Eds.), The mind’s eye:
Cognitive and applied aspects of eye movement research (pp. 573–605). Amsterdam: Elsevier.
Koch, C., & Ullman, S. (1985). Shifts in selective visual attention: Towards the underlying neural
circuitry. Human Neurobiology, 4, 219–227.
Koffka, K. (1935). Principles of gestalt psychology. London: Lund Humphries.
Land, M. F., & Hayhoe, M. (2001). In what ways do eye movements contribute to everyday activities?
Vision Research, 41, 3559–3565.
Lange, E. (1994). Integration of computerized visual simulation and visual assessment in
environmental planning. Landscape and Urban Planning, 30, 99–112.
Malcolm, G. L., & Henderson, J. M. (2010). Combining top-down processes to guide eye movements
during real-world scene search. Journal of Vision, 10(2), 1–11.
Mannan, S. K., Kennard, C., & Husain, M. (2009). The role of visual salience in directing eye
movements in visual object agnosia. Current Biology, 19, R247–R248.
Navalpakkam, V., & Itti, L. (2005). Modeling the influence of task on attention. Vision Research, 45,
205–231.
Minelli, A., Marchesini, I., Taylor, F. E., De Rose, P., Casagrande, L., & Cenci, M. (2014). An open
source GIS tool to quantify the visual impact of wind turbines and photovoltaic panels. Environmental
Impact Assessment Review, 49, 70–78.
Möller, B. (2006). Changing wind-power landscapes: Regional assessment of visual impact on land use
and population in Northern Jutland, Denmark. Applied Energy, 83, 477–494.
Nothdurft, H. (2005). Salience of feature contrast. In L. Itti, G. Rees, & J. K. Tsotsos (Eds.),
Neurobiology of attention (pp. 233–239). Burlington: Elsevier.
Ouerhani, N., Von Wartburg, R., Hügli, H., & Müri, R. M. (2003). Empirical validation of the saliency-
based model of visual attention. Electronic Letters on Computer Vision and Image Analysis, 3(1), 13–
24.
Palmer, J. F. (2015). Effect size as a basis for evaluating the acceptability of scenic impacts: Ten wind
energy projects from Maine, USA. Landscape and Urban Planning, 140, 56–66.
Palmer, J. F., & Hoffman, R. E. (2001). Rating reliability and representation validity in scenic
landscape assessments. Landscape and Urban Planning, 54, 149–161.
Parkhurst, D., Law, K., & Niebur, E. (2002). Modeling the role of salience in the allocation of overt
visual attention. Vision Research, 42, 107–123.
Peters, R. J., Iyer, A., Itti, L., & Koch, C. (2005). Components of bottom-up gaze allocation in natural
images. Vision Research, 45, 2397–2416.
Pitt, D. G., & Zube, E. H. (1979). The Q-sort method: use in landscape assessment research and
landscape planning. In G. H. Elsner, & R. C. Smardon (Eds.), Our national landscape. Proceedings of a
conference on applied techniques for analysis and management of the visual resource (pp. 227–234).
Berkeley: USDA Forest Service.
Poole, A., & Ball, L. J. (2005). Eye tracking in human-computer interaction and usability research:
Current status and future prospects. In C. Ghaoui (Ed.), Encyclopedia of human–computer interaction
(pp. 211–219). Pennsylvania: Idea Group.
Pullar, D. V., & Tidey, M. E. (2001). Coupling 3D visualisation to qualitative assessment of built
environment designs. Landscape and Urban Planning, 55, 29–40.
Rajashekar, U., Cormack, L. K., & Bovik, A. C. (2004). Point of gaze analysis reveals visual search
strategies. In B. E. Rogowitz, & T. N. Pappas (Eds.), SPIE Proceedings on Human Vision and
Electronic Imaging IX (pp. 296–306). San Jose: SPIE.
Rajashekar, U., van der Linde, I., Bovik, A. C., & Cormack, L. K. (2008). GAFFE: A gazeattentive
fixations finding engine. IEEE Transactions on Image Processing, 17(4), 564–573.
Reinagel, P., & Zador, A. M. (1999). Natural scene statistics at the centre of gaze. Network:
Computation in Neural Systems, 10(4), 341–350.
Schmid, W. A. (2001). The emerging role of visual resource assessment and visualization in landscape
planning in Switzerland. Landscape and Urban Planning, 54, 213–221.
Sheppard, S. (1989). Visual simulation: A user’s guide for architects, engineers, and planners. New
York: Van Nostrand Reinhold.
Sheskin, D. J. (2003). Handbook of parametric and nonparametric statistical procedures (Third ed.).
Boca Raton: CRC Press.
Treisman, A., & Gelade, G. (1980). A feature integration theory of attention. Cognitive Psychology, 12,
97–136.
Underwood, G., & Foulsham, T. (2006). Visual saliency and semantic incongruency influence eye
movements when inspecting pictures. Quarterly Journal of Experimental Psychology, 59(11), 1931–
1949.
Uzzell, D., & Jones, E. (2000). The development of a process-based methodology for assessing the
visual impact of buildings. Journal of Architectural and Planning Research, 17(4), 330–343.
Yarbus, A. L. (1967). Eye movements and vision. New York: Plenum.
Zube, E., Simcox, D., & Law, C. (1987). Perceptual landscape simulations: History and prospect.
Landscape Journal, 6(1), 62–79.

Potrebbero piacerti anche