Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Wearable devices 2
Cosa sono? 2
Come funzionano? 3
Interazione con i wearable devices 3
Chatbots 6
Funzionamento di un message Chatbot 6
Haptic Interaction 8
Vari tipi di percezione 8
Touch VS Vista 9
Simboli per l’Haptic Interaction 9
Limitazioni della percezione del tatto 9
Haptic feedback 9
Gestural Interaction 13
Interaction fidelity 14
Limitazioni e punti deboli 14
Zooming interfaces 15
Wearable devices
Cosa sono?
Sono tutti quei dispositivi che possono essere indossati: strumenti utili per l’activity tracking,
il fitness, lo sport, la salute e dispositivi per Virtual Reality (VR) e Augmented Reality (AR).
L’interazione uomo-macchina in questo caso prevede che le due parti siano particolarmente
interconnesse: vi è un continuo scambio di dati. Una peculiarità di questi dispositivi è che si
attivano autonomamente senza il bisogno di dare un input diretto. In più essi agevolano
molto il multitasking visto che non devi necessariamente interrompere ciò che stai facendo
per utilizzarli.
Come funzionano?
Utilizzando, per raccogliere dati in input, dei sensori ( microfono, accelerometro, GPS,
sensore per il battito cardiaco) e, per produrre dati in output, degli attuatori (schermo,
altoparlanti, vibrazione, proiettore). La comunicazione avviene tramite Bluetooth.
Chatbots
I chatbots sono software con cui gli utenti possono interagire utilizzando il linguaggio
naturale: invece di usare widget, puoi usare direttamente voce o testo come se stessi
parlando a una persona reale (l’utente non deve apprendere nulla). I chatbot sono
comunemente utilizzati per:
● scopi educativi
● ottenere informazioni
● intrattenimento
● imparare e mettere in pratica una lingua
● business
● e-commerce (shopping bots)
I chatbot sono anche particolarmente utili per scopi di ricerca (intelligenza artificiale,
simulazione di un dialogo umano) e commerciali (assistenti vocali, helps chat). L’interfaccia
come già accennato può essere vocale o testuale. Ci sono due tipi di chatbot:
1) Basati su regole: il sistema cerca una corrispondenza tra le possibili risposte e l’input
ricevuto utilizzando opportune regole;
2) Basati sull’IA: il sistema cerca di elaborare autonomamente un argomento per la
conversazione (meno passivo e in grado di indirizzare la conversazione con l’utente
verso certi argomenti).
Molti bot sono accessibili attraverso servizi di messaggistica (Facebook, Telegram),
attraverso specifici messaggi che li invocano.
I servizi offerti dai bot sono:
● previsioni del tempo: gli domandi che tempo farà e loro rispondono
● gestione attività: utili per ricordare degli appuntamenti sul calendario
● notizie
● prenotazioni di viaggi (esempio: volo)
A che servono?
Negli Stati Uniti un sondaggio ha mostrato che i dispositivi VCD per usi domestici sono
spesso impiegati per:
● impostare la musica
● sapere che tempo farà
● sentire le notizie
● accendere/spegnere luci
● impostare la sveglia
● fare domande “divertenti”
Best practices
Anche qui vale la solita regola “Recognition rather than Recall”: non va bene avere troppe
opzioni vocali (keywords), poiché l’utente non riesce a ricordarle tutte e a volte non riesce a
finire il suo task proprio perché non ricorda una keyword. Una buona prassi è avere poche
keywords e utilizzare comandi che l’utente solitamente già conosce. Evitare liste di opzioni
tipo “Dire <<questo>> per fare questo”, “Dire <<quest’altro>> per fare quest’altro”,
eccetera (Siri fa una cosa del genere). In aggiunta, il sistema deve fornire solo le
informazioni essenziali (le informazioni implicite sono inoltre preferite rispetto a quelle più
esplicite). Notificare robe tipo “Sto chiamando Chiara” non è utile. E’ fondamentale, infine,
permettere all’utente di poter rimediare ai propri errori, anche se tornare indietro in una
conversazione è difficile dal momento in cui non puoi modificare la query vocale inserita
precedentemente.
Haptic Interaction
Questo tipo di interazione prevede un approccio combinato di interazione tramite
movimento e touch (spesso con le dita). L’haptic interaction è possibile utilizzando appositi
hardware dotati di vibrazione, principale strumento di comunicazione tattile con l’utente.
Essa è particolarmente utile in situazione in cui l’utente non potrebbe vedere una eventuale
interfaccia visuale (ad esempio mentre guida, oppure se l’utente è cieco). Un esempio di
haptic interaction lo abbiamo nei binari dei treni, dove una linea gialla con delle sporgenze
nel pavimento segnala ai non vedenti che stanno varcando il limite di sicurezza della
banchina.
Touch VS Vista
Durante un movimento, il nostro cervello crea una “copia” del nostro sistema motorio e
prova a prevedere i risultati del movimento (tipo la posizione raggiunta) e li confronta coi
risultati effettivi (un tipico esempio di missmatch avviene in auto, in cui se guardi in basso,
poiché il cervello non percepisce visivamente del movimento ma i recettori avvertono che ci
si sta muovendo, si crea un conflitto che genera il mal d’auto). Tale effetto è detto efference
copy. A volte vi è conflitto tra vista e tocco: in alcuni task, la vista è più importante del tocco
e viceversa (non vi è un senso dominante). La vista, al contrario del tocco, permette una
veloce elaborazione della struttura degli oggetti. Il tocco, seppur lento a elaborarne la
forma, è invece l’unico senso a permettere di elaborare la sostanza di cui un oggetto è
composto.
Haptic feedback
Alcuni metodi per la stimolazione tattile sono:
• Deformazione della pelle
• Vibrazione
• Stimolazione elettrica
• Allungamento della pelle
• Attrito (microallungamenti della pelle)
• Temperatura
È possibile forzare le interfacce a feedback (haptic) misurando le posizioni e le forze della
mano dell’utente e/o delle altre parti del corpo e mostrandole all’utente.
Per mostrare questo tipo di dati si devono computare e generare le forze innescate dalle
interazioni che l’utente ha con i vari oggetti virtuali, basandosi sulla posizione del
dispositivo. Il rendering di un oggetto può essere visto come lo spingere il device fuori
dall’oggetto ogni qualvolta che prova a spostarsi dentro l’oggetto stesso: più in fondo
all’oggetto provi a spostare, maggiore è la forza che ti spinge via. Ciò permette alle superfici
di assumere l’effetto di solidità. Il senso del tatto umano è abbastanza sensibile da
richiedere una velocità di elaborazione di almeno 1000 Hz per quanto riguarda il rendering
haptic.
Le applicazioni delle interazioni haptic sono molteplici: in particolare, in campo medico
vengono utilizzate per la visualizzazione e la modellizzazione dei tessuti, per allenare, per
effettuare interventi chirurgici a distanza, per la riabilitazione. Per quanto riguarda la
modellizzazione tridimensionale, troviamo usi nella prototipazione virtuale, nella scultura
virtuale di oggetti 3D (la superficie dell’oggetto può essere percepita già durante la
modellizzazione).
Modello
Il modello utilizzato dalle tui è MCRit (Model-Control-Representation), sia per tangible che
intangible e permette di integrare rappresentazioni e controlli fisici in interfacce utente
tangible.
Oggetti tangible sono accoppiati tramite funzionalità digitali a dati digitali (computational
coupling): gli oggetti tangible rappresentano il mezzo del controllo interattivo. Spostare e
manipolare oggetti è la forma di controllo principale, spostando un oggetto si ha la
precezione di dare un input al sistema e ci si aspetta un output digitale, quindi diciamo che
questi oggetti sono associati percettivamente con rappresentazioni digitali (ad esempio,
audio ed effetti visivi). Lo stato degli oggetti tangible rappresenta l’intero stato del sistema
(representational significance). In questo modo, il sistema rimane parzialmente utilizzabile
se la corrente salta.
Classificazione delle UI
Superfici interattive (ad esempio tangible bits)
• Constructive assembly (ad esempio sandscape)
• Token + vincoli (ad esempio marble answering machine)
Domini di applicazione
Apprendimento
• Problem Solving e Planning
• Visualizzazione delle informazioni
• Programmazione tangible
• Intrattenimento, gioco ed intrattenimento a scopo educativo (edutainment)
• Musica e spettacolo
• Social Comunication
• Tangible reminders e tags
Tecnologie
Le tecnologie principali per lo sviluppo delle tangible interface sono:
• RFID, radio-frequency IDentification, attraverso radiofrequenze si mandano informazioni
(tags) al sistema, ed esso risponde alle interrogazioni.
• Computer Vision, attraverso dispositivi si interagisce con una realta “aumentata” con
informazioni, immagini o video.
• Microcontrolli, Sensori e Attuatori, attraverso i microcontrolli e i sensori viene registrato
l’input e attraverso gli attuatori viene inviato l’output.
Gestural Interaction
Sono un tipo di comunicazione né verbale, né vocale in cui le azioni e i movimenti del corpo
comunicano messaggi particolari: tra questi movimenti ci sono quelli delle mani, del viso o di
altre parti del corpo. Grazie ad algoritmi matematici (Gesture recognition) è possibile
riconoscere ed interpretare posture, andamenti, comportamenti e più in generale la
prossemica (La prossemica è la disciplina semiologica che studia i gesti, il comportamento, lo
spazio e le distanze all'interno di una comunicazione, sia verbale sia non verbale). Ci sono
due tipi di gestures:
• Touch gestures, quelle legate all’utilizzo del touchscreen dello smartphone (swipe, pin,
tap, ecc)
• Touchless gestures
Touchless Gesture
Sono delle gestures che servono ad interagire con i dispositivi senza toccarli: sono basati
sulle discipline come computer vision e image processing attraverso sensori di misurazione
quali accelerometro, giroscopio, magnetometro. Queste gestures vengono utilizzate insieme
a diverse tecnologie, tra cui troviamo le videocamere stereoscopiche, infrarossi, guanti che
catturano i movimenti delle mani, guanti con i cavi, scanner laser. Un problema delle
gestures è che devono essere socialmente accettabili. Un esempio di prodotto che utilizza le
Touchless gestures è il Kinekt di Microsoft.
3D User Interfaces
In questo tipo di interazione uomo-macchina i compiti dell’utente vengono eseguiti
direttamente in un contesto spaziale 3D. Ad esempio fare movimenti nello spazio fisico 3D o
manipolare strumenti, sensori o dispositivi nello spazio 3D. L’interazione 3D è una scelta
naturale per i grandi contesti di visualizzazione. L’enabler tecnologico delle UI 3D è il
tracciamento spaziale, il tracciamento spaziale non è sufficiente da solo (non basta), la
maggior parte dei tracker portatili include altri tipi di input, perché è difficile mappare tutte
le azioni dell’interfaccia alla posizione, all’orientamento o al movimento del tracker.
(Pulsanti, joystick).
Virtual Reality
Virtual Reality simula una realtà, questa realtà non esiste fisicamente ma è fatta apparire dal
software. Virtual Reality riesce a creare un ambiente immersivo e Feedback sensoriale
(uditivo, visivo, tattile…).
Tecnologie Virtual Reality:
Ci sono 3 tipi di interazione tramite VR:
● desktop VR (ad esempio videogiochi in prima persona).
● Head-mounted display: accessibile con un VR headset, come l’oculus rift. Il VR
headset è composto da due schermi su cui vengono mandate immagini differenti,
l’audio è stereo, e il movimento della testa viene tracciato dai sensori. Questo tipo di
dispositivi offre un haptic feedbak. L’interazione con un VR head-mounted avviene
tramite dispositivi come mouse 3D, guanti con cavo, motion controller e sensori di
tracciamento ottico. Per quanto sembri di avere raggiunto un obiettivo surreale
progettuale, questa tecnologia ha incontrato un limite umano, la motion sickness o
virtual reality sickness, ciò nasce dal fatto che il corpo si muove e l’occhio vede un
mondo in continua evoluzione ma la posizione del corpo non cambia: questo
provoca un senso di nausea all’utente, non tutti ne sono affetti.
● Mouse 3D, wired glove, controller di movimento e optical tracking sensor.
Virtual Reality può causare sintomi simili alla cinetosi, ovvero, disagio generale, mal di testa,
nausea, vomito, pallore, sudorazione, affaticamento, sonnolenza, disorientamento e apatia.
Applicazioni Virtual Reality: divertimento, robotica, scienze sociali e psicologia, assistenza
sanitaria, istruzione e formazione, belle arti, ingegneria, salute e sicurezza, eredità culturale,
progettazione urbana, marketing digitale.
Augmented reality
Realtà aumentata aggiunge oggetti nel mondo reale, non nel vero senso della parola, cioè gli
oggetti che risiedono nel mondo reale sono “aumentati” da informazioni percettive
generate dal computer.
AR vs VR: La realtà aumentata altera la percezione in corso di un ambiente reale, mentre la
realtà virtuale sostituisce completamente l’ambiente reale dell’utente con uno simulato. Le
informazioni sul mondo reale circostante dell’utente diventano interattive e manipolabili
digitalmente, sovrapposti al mondo reale.
Mixed reality
Augmented Virtuality: cioè fusione di oggetti del mondo reale in mondi virtuali. Un esempio
Microsoft HoloLens, occhiali intelligenti a realtà mista sviluppati e prodotti da Microsoft.
Interaction fidelity
Le interazioni che vengono realizzate devono avere un grado oggettivo di coerenza: le azioni
(movimenti, forze, parti del corpo in uso, etc) usate per un task nella UI devono
corrispondere alle azioni utilizzate per quello stesso task nel mondo reale. Si parla perciò di
Realismo continuo (Continuum realism). Talvola le azioni possono assumere un carattere
naturale o magico per seguire la metafora naturale: estendere le abilità dell’utente oltre ciò
che è possibile nel mondo reale (quindi iper-naturale).
Zooming interfaces
Le zooming interfaces sono basate sulle viste: vengono utilizzati bottoni e tabs per passare
da una vista all’altra, ma a volte risulta difficile tornare indietro e ricordarsi dove si trovasse
una particolare informazione od opzione. Come un labirinto, è difficile uscirne a meno che
non si “voli” al di sopra di esso ed è difficile ricordarsi della lunga sequenza di svolte. Queste
interfacce sono realizzate tramite piani infiniti con risoluzione infinita. Su ogni piano
possono essere effettuate diverse operazioni:
• Pan: “volare” sul piano in modo da avere una vista generale del piano stesso
• Climb: passare al piano precedente facendo uno zoom-out
• Dive In: passare al piano successivo facendo uno zoom-in
Con queste azioni gli utenti possono cambiare la scala dell’area che si sta visualizzando.
Nelle ZUI l’utente tende a ricordare le posizioni relative ed i punti di riferimento (landmarks)
e fa associazioni basandosi sulla prossimità degli elementi. Lo zoom crea una gerarchia tra i
piani, e l’utente può organizzare gli oggetti sui piani come preferisce.