Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
www.hoepli.it
Prefazione
di Roberto Cingolani
Introduzione
Capitolo 1
Leonardo, il cavaliere, l’androide
Capitolo 2
Gentili, simpatici e capaci di imparare
Capitolo 3
Badanti, cuochi, tuttofare: in arrivo i robot di casa
Capitolo 4
Non solo nelle case… ladri di lavoro?
Capitolo 5
Animali e piante, i robot diventano soffici
Capitolo 6
Che aspetto avranno?
Capitolo 7
Indossabili, iniettabili, ingoiabili
Capitolo 8
Droni, sciami e robonauti
Capitolo 9
Robot in rete
Capitolo 10
A tu per tu con i robot
Circa l’autore
PREFAZIONE
Artificial things are, in fact, all produced by the action of that part
of nature which we call mankind, upon the rest.
(Gli oggetti artificiali sono, in realtà, tutti prodotti dall’azione di
quella parte della natura, che chiamiamo umanità, sulle altre parti.)
Thomas Henry Huxley, Science Primers, 1880
LEONARDO, IL CAVALIERE,
L’ANDROIDE
Figura 1.1 – Leonardo androide, realizzato dal gruppo di Minoru Asada, università di Osaka (fonte:
Research at the Osaka University).
I signori Asahi vivono in Giappone con i loro tre figli, il nonno e Pepper, il
robot di casa. Una foto li ritrae sorridenti attorno al piccolo robot bianco dai
grandi occhi tondi e scuri e la bocca appena accennata, che gli danno l’aria
ingenua di un bambino. La famiglia Asahi non è stata la prima al mondo a
sperimentare la convivenza con un robot: altre, anche se molto poche,
hanno già condiviso la casa con una macchina. Di sicuro, però, la famiglia
Asahi è quella cha ha visto il futuro più da vicino perché il robot che ha
adottato sa imparare e cresce di giorno in giorno, apprendendo cose nuove.
Ogni membro della famiglia gli ha insegnato qualcosa, a seconda delle sue
esigenze, e il robot ha imparato. Alto 120 centimetri e pesante 28 chili,
Pepper ha due braccia e non ha gambe, ma si sposta su ruote muovendosi
autonomamente in ogni stanza. È stato progettato per accompagnare l’uomo
nella vita di tutti i giorni e comunica sia grazie alla tecnologia del
riconoscimento vocale, analoga a quella che funziona sugli smartphone, sia
con un display sul torso. Sa quindi ascoltare e parlare, ma soprattutto sa
riconoscere i visi delle persone con cui vive e ne analizza i lineamenti per
capire se chi gli sta davanti è allegro o triste, arrabbiato o contento. Non è
tutto, perché Pepper sa manifestare delle emozioni, anche se molto
elementari. La luce azzurra che si accende attorno agli occhi, il tono di voce
e le immagini colorate che compaiono sul suo display sono i modi con cui
si esprime. Costruito dalla Aldebaran Robotics e dalla SoftBank Mobile nel
2015, Pepper è stato uno dei primi robot domestici e uno dei pochissimi
robot a essere stato messo in commercio, tra i circa 90 modelli diversi
completati fra il 1980 e il 2015.
Figura 3.1 – Pepper in abito da sera per il 28° Festival del Cinema di Tokyo (fonte: Dick Thomas
Johnson).
scriveva Bill Gates, convinto che sarebbe stato possibile realizzare una
nuova generazione di dispositivi autonomi solo passando attraverso
tecnologie come il calcolo distribuito, ossia basato su più computer
collegati in rete, e facendo significativi progressi nei sistemi di
riconoscimento vocale e visivo e nelle connessioni wireless.
Umanoide
Il termine “umanoide” significa “simile all’uomo” e deriva dal
latino “humanus” associato al suffisso greco “-oide”, che
significa “come”. È una parola che si limita a indicare pochi
tratti relativi alla forma esterna, come la presenza di due
gambe, due braccia e una testa. È stato utilizzato a fine
Ottocento dagli etnologi per indicare gli individui delle
popolazioni indigene e in seguito dai paleontologi che
studiavano gli antenati dell’uomo. Più recentemente la
fantascienza ha utilizzato questo termine riferendosi a
extraterrestri dall’aspetto simile a quello umano. La robotica lo
utilizza per descrivere le macchine che, come l’uomo,
camminano su due gambe e hanno due braccia e una testa. Non
è necessario che queste caratteristiche siano simili a quelle
umane nei dettagli. Per esempio non è necessario che la statura
sia confrontabile con quella di un essere umano, né che la
faccia abbia occhi, naso e bocca, né infine che le mani abbiano
cinque dita.
Capitolo 4
Non è un timore nuovo. Più volte nella storia l’arrivo delle macchine ha
scatenato la paura della disoccupazione, un timore che venne teorizzato nel
1930 da John Maynard Keynes nel saggio Possibilità economiche per i
nostri nipoti, nel quale l’economista britannico proponeva una “rapida
incursione in un futuro ragionevolmente lontano”, che collocava di lì a un
secolo, ossia intorno al 2030; nel futuro vedeva una malattia all’epoca
sconosciuta ma che in tempi successivi avrebbe fatto parlare molto di sé: la
“disoccupazione tecnologica”. A causarla, diceva Keynes, è il fatto che
I lavori che i robot lasceranno fare agli umani saranno quelli che
richiedono idee e conoscenza. In altre parole soltanto gli esseri
umani che avranno ricevuto un’educazione migliore potranno
competere con le macchine. E il sistema educativo negli Stati Uniti
e nella maggior parte del resto del mondo tiene gli studenti seduti in
fila, insegnando loro a stare tranquilli e a memorizzare ciò che viene
detto.
Baker, che alla fine degli anni Ottanta ha fatto parte della task force che
ha sviluppato gli standard di Internet, si diceva convinto che
Uno dei primi robot dalle articolazioni elastiche è stato messo a punto
dall’IIT, si chiama Coman (Compliant Humanoid) e ha gambe molleggiate
che, grazie a una serie di sensori e alle articolazioni morbide, riescono a
tenerlo in equilibrio con un’elasticità confrontabile con quella di un essere
umano. Dalla collaborazione fra IIT e Centro Piaggio è arrivato anche
Walk-Man, il robot alto 1,85 metri e pesante 100 chili realizzato nell’ambito
del progetto europeo Whole-body Adaptive Locomotion and Manipulation.
Ha mani soffici ispirate a quelle umane; quando cammina, nel laboratorio in
cui i ricercatori continuano a perfezionarlo, ha un’andatura dinoccolata ma
decisa. Si è fatto onore anche fuori dal laboratorio nel settembre 2015,
quando ha festeggiato la Notte Europea dei Ricercatori sorreggendo la Torre
di Pisa. Walk-Man è stato progettato per adattarsi a qualsiasi tipo di terreno
e a situazioni difficili e impreviste, in modo da poter essere utilizzato come
robot di salvataggio. Con gli stessi obiettivi, dal 2007, sempre all’IIT, si sta
lavorando a HyQ (Hydraulic Quadruped), il robot che con le sue quattro
zampe molleggiate potrebbe intervenire per prestare i soccorsi nelle zone
colpite da un terremoto o da un incidente.
dice Cecilia Laschi. La prima regola che si incontra lungo questa strada ha
un nome curioso, “simplessità”, coniato nel 2012 dal fisiologo Alain
Berthoz.
Finora – spiega Laschi – per semplificazione si intendeva un
modello più semplice, ma essere semplici non porta a niente: la
natura non ha semplificato il sistema, ma il controllo. Nel corso
dell’evoluzione il cervello è riuscito a mettere a punto un sistema
velocissimo ed efficiente: un sistema difficile da realizzare, ma alla
fine con pochi segnali si controlla tutto.
Figura 5.2 – Octopus, il robot-polpo realizzato in Italia dal gruppo di Cecilia Laschi, della Scuola
Superiore Sant’Anna di Pisa (fonte: Jennie-Hills, London Science Museum).
Simplessità
La simplessità è un concetto recente alla base dell’ingegneria
come delle neuroscienze e consiste nel riprodurre effetti
complessi con le modalità più semplici possibili. È un concetto
utilizzato in molti ambiti, dal design al marketing, ed è uno dei
punti di riferimento della cosiddetta robotica soft, che tende a
riprodurre nelle macchine i meccanismi semplici che
controllano i movimenti degli organismi naturali e il loro modo
di adattarsi all’ambiente.
Il termine è stato introdotto nel 2012 dal fisiologo Alain
Berthoz nel libro Simplessità, semplificando i principi di un
mondo complesso e si riferiva al corredo di soluzioni che gli
organismi viventi mettono in atto per gestire informazioni e
situazioni, mentre tengono conto delle esperienze passate e
anticipano quelle future, in modo da agire nel modo più rapido,
elegante ed efficiente. Secondo Berthoz l’intera storia degli
organismi viventi può essere considerata il frutto della loro
capacità di trovare soluzioni per evitare la complessità. Non si
tratta affatto di soluzioni semplici, ma del frutto di una serie di
operazioni tese a trovare il modo di agire migliore.
La storia della robotica soft non finisce qui perché è cominciata una
sfida ancora più ambiziosa, che prende le piante come il modello per
costruire futuri robot. “Finora le piante sono sempre state considerate degli
organismi passivi”, ma sappiamo che non è così perché
Robot abili
Non solo mani: i robot stanno imparando a utilizzare strumenti
per manipolare oggetti senza afferrarli direttamente. L’esempio
che ha riscosso più successo è stato il robot pizzaiolo,
realizzato nell’ambito del progetto europeo RoDyMan
(RObotic DYnamic MANipulation). “È un esempio di
manipolazione non prensile, che avviene senza che il robot
afferri direttamente l’oggetto. Dato che per preparare una pizza
serve una straordinaria destrezza manuale si è pensato di
realizzare un robot pizzaiolo”, spiega il coordinatore scientifico
del progetto, Bruno Siciliano, del Dipartimento di Ingegneria
Elettrica e Tecnologie dell’Informazione dell’Università di
Napoli Federico II. L’obiettivo del progetto è realizzare un
robot con un’abilità manuale tale da manipolare oggetti
deformabili, sia oggetti elastici (che una volta deformati sono
in grado di tornare alla loro forma originaria) sia oggetti
plastici (duttili e in grado di assumere qualsiasi forma, come la
plastilina). Il robot pizzaiolo Rodyman è la dimostrazione più
eloquente di queste abilità, capace com’è di modellare un disco
di pasta per la pizza e di farlo volteggiare come un autentico
pizzaiolo.
Figura 5.3 – RoDyMan, il robot pizzaiolo (fonte: Bruno Siciliano, progetto
RoDyMan).
Comunicare con un robot come questo sarà molto simile a usare uno
smartphone. Per ognuna di queste macchine – ha spiegato Metta – è
prevista una fase di addestramento, nella quale basterà mostrare loro
un oggetto perché impari a riconoscerlo e a usarlo. Si dovranno
scaricare delle app, proprio come oggi si fa con gli smartphone, e
ciascuna app avrà un dominio limitato a compiti molto specifici,
come: “Innaffia le piante”, o: “Dai la pappa al gatto”. Nella fase di
addestramento bisognerà soprattutto parlare e mostrare. Grazie a
tecnologie di apprendimento automatico, inoltre, ogni robot
costruirà la mappa necessaria per muoversi nel suo ambiente.
ha detto Metta. Per questo bisogna semplificare e il primo passo per farlo è
scegliere nuovi materiali.
Adesso abbiamo il “robot di plastica”, a breve potremmo avere
robot fatti di altri materiali, come gli smart materials,
Sono numerosi i gruppi di ricerca che nel mondo stanno lavorando per
costruire macchine più leggere ed economiche dei robot tradizionali e che
siano capaci di collaborare con l’uomo.
Materia programmabile
La materia programmabile è una materia equipaggiata con un
corredo di sensori e capacità di calcolo, ossia minuscoli
computer, che le permettono di modificare forma, aspetto e
proprietà, come quelle ottiche o la conduttività. Il termine è
stato introdotto nel 1991 dall’italiano Tommaso Toffoli, che
insegna Ingegneria elettrica e Informatica nell’università di
Boston, e dal canadese-americano Norman H. Margolus, del
Laboratorio di Informatica e Intelligenza artificiale del
Massachusetts Institute of Technology (MIT). Si riferiva a un
insieme di nodi di calcolo a grana fine disposti in uno spazio e
che comunicavano fra loro interagendo con i nodi più vicini. In
seguito ai progressi fatti nei campi dei semiconduttori e delle
nanotecnologie, la materia programmabile è uscita dalla teoria
per diventare una possibilità concretamente realizzabile e il suo
significato è mutato e ora indica una sostanza che può essere
programmata in modo da modificare le sue proprietà fisiche.
Ha ispirato anche la fantascienza e nel 2003 Wil McCarthy le
ha dedicato il romanzo The Wellstone, dal nome che aveva
coniato per la materia programmabile e che nel romanzo era
capace di imitare qualsiasi altra materia.
Capitolo 7
INDOSSABILI, INIETTABILI,
INGOIABILI
Las Vegas, 1961, in uno dei tanti casinò c’è un uomo che sembra baciato
dalla fortuna. Non sbaglia un colpo. Indossa un auricolare, senza dare
troppo nell’occhio, e non si direbbe che sia in compagnia. Con lui, a una
certa distanza attorno al tavolo della roulette, c’è un altro uomo che sembra
soffrire di un tic nervoso: ogni volta che la pallina comincia a girare, batte il
tacco della scarpa a intervalli regolari. In realtà sta inviando dati sui
movimenti della pallina al computer che ha nascosto nel tacco e da lì, con
un collegamento wireless, i dati raggiungono un secondo computer che lo
stesso uomo ha nascosto nel pacchetto di sigarette. Il computer del
pacchetto elabora i dati utilizzando uno speciale algoritmo che calcola dove
la pallina ha le maggiori probabilità di fermarsi, quindi traduce il numero
nel tono musicale corrispondente (ne è stato programmato uno per ogni
possibile numero della ruota) e lo invia all’auricolare del primo uomo. A
quest’ultimo non resta che interpretare il tono e puntare sul numero
vincente. Non è stato un trucco ingegnoso escogitato da due giocatori
incalliti: protagonisti di questo episodio sono stati Edward Thorp e Claude
Shannon, entrambi matematici del Massachusetts Institute of Technology
(MIT), e subito dopo quell’unico viaggio a Las Vegas hanno donato il loro
ingegnoso dispositivo al museo del MIT. Hanno fatto bene perché non
soltanto erano riusciti a costruire dei computer in miniatura in un’epoca in
cui i calcolatori erano giganteschi, ma perché il loro era anche il primo
esempio in assoluto di tecnologia indossabile: un vero salto nel futuro.
Ci sono voluti almeno 30 anni perché la tecnologia indossabile
cominciasse a far parlare di sé e oltre mezzo secolo perché diventasse
popolare come una moda; nel frattempo la sua strada ha incontrato quella
della robotica, con la nascita di protesi intelligenti, polpastrelli bionici che
avvertono il tatto, esoscheletri per aiutare chi ha perso un arto, ma anche
aprendo la strada all’esplorazione spaziale, o ancora per equipaggiare futuri
soldati. Nei prossimi incontri ravvicinati fra uomini e robot non ci sono
soltanto gli umanoidi che abbiamo incontrato finora. Ci saranno robot da
indossare e robot che possono entrare nel corpo umano: alcuni abbastanza
minuscoli da poter essere ingoiati e altri ancora più piccoli che possono
essere iniettati nei vasi sanguigni per fare diagnosi o per somministrare
farmaci.
Cominciamo dai computer indossabili. Le ricerche di Shannon e Thorp
avevano sicuramente aperto una strada, ma ci sono voluti almeno dieci anni
perché le ricerche da loro inaugurate facessero dei sostanziali passi in
avanti. Soltanto nel 1977 è stato realizzato il primo casco sul quale era
installata una videocamera in grado di convertire le immagini in sensazioni
tattili per i non vedenti e nel 1986 sono state messe in vendita le prime
videocamere montate sui caschi, come quella utilizzata nel 1987 da Mark
Schulze e Patty Mooney per realizzare The Great Mountain Biking Video,
uno dei primi video istituzionali sulle tecniche di uso della mountain bike.
Quell’episodio ha aperto la strada alle GoPro, le videocamere e fotocamere
indossabili, resistenti all’acqua e agli urti, strumenti indispensabili per la
fotografia d’avventura. Sempre negli anni Ottanta il ricercatore del
Massachusetts Institute of Technology (MIT) Steve Mann ha cominciato a
realizzare i primi computer compatti con videocamera incorporata e in poco
più di dieci anni le sue ricerche hanno portato alla webcam, realizzata nel
1994, e ad altre invenzioni pionieristiche, come la EyeTap, un dispositivo
che si applica davanti all’occhio e che può essere utilizzato nello stesso
tempo come fotocamera e come display: caratteristiche che ne fanno a tutti
gli effetti l’antenato dei Google Glass.
Se possiamo considerare Steve Mann il pioniere dell’elettronica
indossabile, Mark Weiser ne è stato il teorico. Nel 1989 in una conferenza a
Palo Alto ha introdotto un concetto destinato a fare molta strada, quello di
“computer ubiquo”, secondo il quale il calcolo non era più legato al classico
pc da scrivania ma poteva avvenire ovunque e con qualsiasi strumento.
Dopo i tablet, che possono essere considerati la prima concretizzazione
dell’idea di Weiser, nel 2013 i Google Glass l’hanno realizzata
completamente, trasformando il computer in uno strumento disponibile
ovunque, in qualsiasi momento e in ogni situazione. In tutta la tecnologia
indossabile, i sensori, l’elettronica e il software sono incorporati all’interno
di oggetti che, in modo autonomo e senza che l’uomo intervenga in alcun
modo, possono trasmettere e scambiare i dati con altri dispositivi connessi.
Figura 8.1 – Lo sciame di robot Kilobot, dell’università di Harvard (fonte: Asus creative).
Biomimetismo e Bionica
Biomimetismo: (dai temini greci “bios”, vita, e “mimesis”,
imitazione) è il campo di ricerca che tende a realizzare
macchine o meccanismi prendendo come modello gli esseri
viventi e le strutture con le quali si adattano all’ambiente. Gli
organismi viventi possono essere imitati realizzando macchine
di tutte le dimensioni, come pure riproducendo alcuni loro
comportamenti, per esempio nel caso delle colonie di insetti,
perenne fonte di ispirazione per alcuni settori della robotica.
Uno dei più antichi e celebri esempi di biomimetismo è stata la
macchina volante di Leonardo da Vinci, ispirata al volo degli
uccelli e basata sullo studio dettagliato della loro anatomia e
della dinamica dei loro movimenti. A coniare il termine è stato
intorno al 1950 il biofisico americano Otto Schmitt che,
ispirandosi al calamaro, aveva messo a punto un dispositivo
che riproduceva l’organizzazione del suo sistema nervoso.
Bionica: il termine è stato coniato nel 1958, quando ancora
aveva sapore di fantascienza, dal medico militare Jack E. Steele
e sta a indicare la scienza dei sistemi le cui funzioni sono
copiate dalla natura, o che rappresentano e replicano alcune
caratteristiche dei sistemi naturali. Le ricerche di Steele hanno
ispirato il romanzo Cyborg, di Martín Caidín, dal quale negli
anni Settanta sono state tratte le serie televisive americane The
Six Million Dollar Man e The Bionic Woman che hanno reso
popolare il termine “bionica”.
Capitolo 9
ROBOT IN RETE
Ancora una volta ritroviamo il piccolo Nao. L’esperienza della banca è stata
molto positiva, ma alla fine è tornato alla sua prima passione: lavorare nella
reception di un hotel; questa volta non è in Giappone accanto a colleghi
androidi e dinosauri, ma collabora con esseri umani e può farlo perché c’è
una novità: non è più da solo. Tutte le macchine che abbiamo incontrato
finora dietro il banco informazioni di un hotel o di una grande azienda,
comprese le più evolute e quelle capaci di imparare, avevano un bagaglio di
informazioni abbastanza limitato. Nao, che per l’occasione ha cambiato
nome diventando Connie, sa invece dare moltissime informazioni agli ospiti
che, curiosi, gli pongono una domanda dopo l’altra sui luoghi da visitare in
città. Come mai? Può farlo perché è collegato a Watson, il supercomputer
della IBM.
“Watson aiuta Connie a comprendere le richieste degli ospiti e a
rispondere in modo naturale”, ha osservato il vicepresidente dell’ufficio
tecnologico della IBM, Rob High. Oltre a informazioni e dati, il
supercomputer fornisce al robot gli elementi per comprendere il linguaggio
naturale e lo aiuta a imparare molto rapidamente. Per ora questo è solo un
esperimento, condotto in uno degli hotel Hilton negli Stati Uniti, ma indica
la direzione nella quale si andrà: dopo telefoni e computer, sarà la volta dei
robot a essere collegati in rete.
Figura 9.1 – Il supercomputer Watson, al quale è stato collegato Nao (fonte: Clockready).
Figura 9.2 – Robot collegati in rete nella fabbrica della Kuka (fonte: Kuka Systems GmbH).
Privacy e sicurezza non sono gli unici problemi posti dalla robotica nel
cloud: ci si domanda, per esempio, chi dovrà rispondere del comportamento
di un robot finito fuori controllo e che improvvisamente comincia a
comportarsi in modo disonesto. Bisognerà capire fino a che punto varranno
le famose leggi della robotica, che abbiamo già incontrato, e secondo le
quali un robot non dovrebbe mai fare del male a un essere umano, ma la
riflessione potrebbe portarci oltre, nel dominio della roboetica, la disciplina
che indaga sulla responsabilità dell’uomo nel costruire macchine intelligenti
e sull’etica che gli uomini dovrebbero avere quando interagiscono con le
macchine. A chiamare così questa disciplina, nel 2002, è stato Gianmarco
Veruggio, responsabile della sezione di Genova dell’Istituto di elettronica e
di ingegneria del Consiglio nazionale delle ricerche (IEIIT-CNR),
definendola come un’etica applicata, volta a
Quando i due robot sono stati per un mese fuori dal laboratorio per
essere sperimentati in un ospedale ci siamo sentiti soli, come se
qualcuno fosse andato via,
A dargli ragione, sempre nel 2014 in una delle fiere dell’elettronica più
grandi del mondo, la Global Sources Electronics Fair di Hong Kong, è stato
presentato Han, l’androide dal viso assolutamente realistico realizzato dalla
Hanson Robotics, l’azienda fondata da David Hanson che aveva montato
una realistica testa di Albert Einstein sul corpo del robot Hubo. A tanti anni
di distanza, Han è stata la dimostrazione dei grandi progressi fatti: nessun
robot ha la stessa capacità di mantenere il contatto visivo con gli esseri
umani che lo guardano e una faccia che è in grado di assumere tante
espressioni grazie a 40 motori. Ancora più realistici sono i parenti di Han
messi a punto nella stessa azienda, come Jules, l’androide con il quale è
possibile conversare, o come Joey Chaos, l’androide punk appassionato di
musica e politica che ama intrattenere discussioni su entrambi questi
argomenti o ancora come Alice, l’androide femmina realizzata per la
ricerca. Macchine come queste alimentano il dibattito, in corso da molti
anni, sull’esistenza di una soglia oltre la quale i robot molto simili all’uomo
possono non essere più percepiti come presenze amichevoli e diventano
presenze inquietanti. La discussione va avanti da molto tempo, ma senza
una fondatezza scientifica comprovata: è la teoria della cosiddetta “uncanny
valley” (valle perturbante).
Questo significa che i robot potrebbero non avere più l’aspetto che
abbiamo imparato a conoscere e che, anzi, non esisterebbero più con un
oggetto fisico a sé stante: potrebbero essere scomposti in una serie di
funzioni, ognuna delle quali incorporata in un oggetto della casa.
I robot abiteranno con noi e perché siano utili sarà indispensabile che
conoscano molto bene la nostra casa. Che abbia mani con cinque dita o
semplici pinze, la prima generazione di robot domestici dovrà essere molto
abile nel manipolare gli oggetti, in modo da liberarci dai lavori più pesanti e
antipatici, come spostare cose pesanti, pulire il bagno e la cucina, lavare i
pavimenti, rifare i letti perfettamente e stirare le camicie. I robot potranno
anche apparecchiare e sparecchiare la tavola, porgerci oggetti di cui
abbiamo bisogno e perfino sorreggerci quando è necessario, o ancora
aiutare le persone anziane a fare la doccia e a vestirsi.
Alla luce di tutto quello che sappiamo adesso sui robot possiamo dire
che sono strumenti. Per quanto sorprendenti, gradevoli, simpatici e
risolutivi, l’importante è non dimenticare che sono strumenti che ci aiutano.
E siccome ci aiuteranno a fare le cose della routine quotidiana che oggi ci
pesano di più, possiamo facilmente immaginare che nei loro confronti
potremmo sentirci davvero riconoscenti. Sarà una reazione naturale (chi
non si è ritrovato almeno una volta a ringraziare la lavatrice di esistere?),
ma non dimentichiamo che non saranno altro che degli strumenti.
Uncanny valley
Uncanny valley (valle perturbante) è il nome dato all’ipotesi
secondo cui esiste una soglia oltre la quale i robot dall’aspetto
molto realistico e simile a quello umano possano indurre una
sensazione di disagio, diffidenza e turbamento. Questa ipotesi
era stata presentata dallo studioso di robotica giapponese
Masahiro Mori in un articolo pubblicato nel 1970 sulla rivista
Energy, mentre il termine venne citato soltanto nel 1978 nel
libro Robots: Fact, Fiction, and Prediction, di Jasia Reichardt.
La teoria, alla quale non è mai stata attribuita fondatezza
scientifica, indicava che a mano a mano che l’aspetto di un
robot si avvicina a quello umano suscita nell’uomo risposte
positive di empatia, indicate da un grafico in progressiva
ascesa, ma se la somiglianza diventa troppo realistica, al punto
da rendere molto difficile capire se ci si trovi davanti a un
essere umano o a una macchina, l’empatia scompare per
lasciare spazio all’inquietudine e la curva precipita.
Informazioni sul Libro
Gentili, simpatici, tuttofare: i robot cambiano look e si preparano a entrare
nelle case. Saranno elettrodomestici molto speciali e potrebbero arrivare
intorno al 2035, proprio come immaginava la versione cinematografica dei
racconti di Io, robot di Isaac Asimov.
Questo libro è un modo per dare un’occhiata sul futuro incontrando i robot
“bambini” capaci di imparare come iCub, il robot abile pizzaiolo, il robot
polpo e i fantascientifici androidi.
Circa l’autore
Enrica Battifoglia è giornalista scientifico e lavora per l’agenzia ANSA.
Nata a Roma, laureata in Filosofia del linguaggio e in Scienze dell’opinione
pubblica, ha partecipato a spedizioni scientifiche in Antartide, nel
laboratorio Piramide del Consiglio Nazionale delle Ricerche sull’Everest e
nel Sahara occidentale. Ha pubblicato libri per ragazzi, vinto diversi premi
per la divulgazione scientifica e tenuto corsi sulla comunicazione della
scienza in master organizzati da università e privati.