Sei sulla pagina 1di 126

Collana diretta da Massimo Temporelli

Che cosa fa la scienza? Che limiti ha la tecnologia? Come stanno


cambiando la società e il nostro mondo?… La collana prova a rispondere a
queste e altre domande in modo brillante e non accademico.
Un taglio agile e disincantato, un linguaggio alla portata di tutti, autori
giovani e vicini al mondo della ricerca: ecco i tratti salienti di una collana
per informarsi in modo veloce ed efficace sui principali argomenti della
scienza e della tecnologia. Quelli che stanno sempre di più cambiando la
nostra vita.
I titoli della collana si articolano in diversi filoni legati ai temi della
divulgazione scientifica, delle frontiere tecnologiche e delle sue
applicazioni, delle biografie di scienziati, inventori e movimenti, delle idee
e delle scoperte che hanno segnato la storia dell’umanità.
Enrica Battifoglia

I robot sono tra noi

Dalla fantascienza alla realtà

EDITORE ULRICO HOEPLI MILANO


Copyright © Ulrico Hoepli Editore S.p.A. 2016
via Hoepli 5, 20121 Milano (Italy)
tel. +39 02 864871 – fax +39 02 8052886
e-mail hoepli@hoepli.it

www.hoepli.it

Seguici su Twitter: @Hoepli_1870

Tutti i diritti sono riservati a norma di legge


e a norma delle convenzioni internazionali

ISBN EBOOK 978-88-203-7405-1

Progetto editoriale e realizzazione: Maurizio Vedovati – Servizi editoriali


(info@iltrio.it)
Copertina: Sara Taglialegne
Immagine di copertina: © Akio Kon / Bloomberg / Getty Images.
All rights reserved

Realizzazione digitale: Promedia, Torino


SOMMARIO

Prefazione
di Roberto Cingolani

Introduzione

Capitolo 1
Leonardo, il cavaliere, l’androide

Capitolo 2
Gentili, simpatici e capaci di imparare

Capitolo 3
Badanti, cuochi, tuttofare: in arrivo i robot di casa

Capitolo 4
Non solo nelle case… ladri di lavoro?

Capitolo 5
Animali e piante, i robot diventano soffici

Capitolo 6
Che aspetto avranno?

Capitolo 7
Indossabili, iniettabili, ingoiabili

Capitolo 8
Droni, sciami e robonauti

Capitolo 9
Robot in rete

Capitolo 10
A tu per tu con i robot

Informazioni sul Libro

Circa l’autore
PREFAZIONE

Negli ultimi anni la robotica è diventata un argomento sempre più presente


nel dibattito pubblico, legata a notizie che riguardano il suo sviluppo
tecnologico e il particolare interesse a investirvi da parte di aziende
multinazionali, rappresentando l’emblema di una società in fase di grande
cambiamento. Quello che fino a qualche decennio fa apparteneva al mondo
della fantascienza, oggi è un fatto concreto costituito da robot umanoidi,
esoscheletri, protesi e robot industriali. Le previsioni per il futuro ci dicono
che stiamo andando verso una società in cui robot e macchine automatiche
saranno sempre più presenti in ambito domestico e lavorativo; esisterà un
vero e proprio ecosistema robotico che dovrà convivere con gli esseri
umani, comunicare e interagire con loro.
Questo libro illustra, con un linguaggio semplice e numerosi esempi,
come la coesistenza tra robot e uomini sia già in corso. Iniziata per gioco
nel Settecento con automi da intrattenimento, oggi la robotica sta
modificando le nostre abitudini di vita e di lavoro, e avrà riflessi inevitabili
nello sviluppo tecnologico e in campo economico e culturale.
Per quanto l’idea di automi si trovi nei racconti dell’antica Grecia e nei
progetti di Leonardo da Vinci, solo grazie allo sviluppo tecnologico del
ventesimo secolo si è riusciti a realizzare i primi prototipi di robot: dai
bracci meccanici da usare nelle linee di produzione industriali, fino agli
umanoidi più avanzati nati negli anni 2000. L’affermazione della robotica,
infatti, è ed è stata possibile grazie alla ricerca tecnologica in campi
convergenti, dall’intelligenza artificiale, l’informatica e l’ingegneria, alla
scienza dei materiali, l’elettronica e le neuroscienze. Anche l’evoluzione
della robotica futura dipenderà da queste discipline.
Numerosi sono i robot già presenti nelle nostre case, che ci permettono
di pulire i pavimenti, tagliare il prato o intrattenerci. Nei prossimi dieci anni
potremmo averne una versione più intelligente e utile. Un esempio sono i
robot “compagni del cittadino”, cioè umanoidi in grado di aiutarci nei lavori
domestici, negli ospedali, nella cura dei bambini e nell’assistenza agli
anziani. Oppure esoscheletri e protesi interconnesse con il corpo umano,
soprattutto per aiutare quanti hanno perso la mobilità o l’uso degli arti in
seguito a incidenti o gravi malattie. Le macchine intelligenti potranno
essere anche robot nanoscopici per il monitoraggio dei parametri vitali
dall’interno del corpo, così come tecnologie indossabili dove sensori,
elettronica e software sono incorporati in unici oggetti portatili.
L’incremento del numero di robot tra noi coinciderà con la loro
produzione a larga scala e con costi comparabili a quelli di un’automobile
utilitaria. Questo cambierà il mondo del lavoro, poiché da una parte ci sarà
bisogno di figure professionali in grado di progettare, migliorare e
programmare queste macchine autonome, dall’altra permetterà la
sostituzione dell’uomo da parte di robot in attività usuranti, in situazioni di
emergenza e di pericolo.
L’autrice, inoltre, mostra come nei diversi laboratori del mondo, con
l’Italia in primo piano, si stia lavorando per costruire una nuova
generazione di robot, affinché siano sicuri e il loro utilizzo versatile. I
materiali dovranno essere soffici ed ecocompatibili, le forme bioispirate –
non solo agli uomini, ma alle piante, agli animali e ai microorganismi – e
l’aspetto piacevole.
Questo libro, infine, ci ricorda l’importanza di raccontare gli sviluppi
della scienza contemporanea per permettere ai cittadini di oggi di
immaginare il futuro e di affrontarlo in modo consapevole, senza paure
ingiustificate, ma esercitando instancabilmente uno spirito critico positivo a
beneficio dei cittadini di domani.
Roberto Cingolani
Direttore scientifico
dell’Istituto Italiano di Tecnologia
INTRODUZIONE

Artificial things are, in fact, all produced by the action of that part
of nature which we call mankind, upon the rest.
(Gli oggetti artificiali sono, in realtà, tutti prodotti dall’azione di
quella parte della natura, che chiamiamo umanità, sulle altre parti.)
Thomas Henry Huxley, Science Primers, 1880

Chi non ha mai sognato un robot maggiordomo? Gli entusiasti possono


stare tranquilli: si tratta solo di aspettare. Chi invece non vede di buon
occhio la prospettiva di condividere casa e abitudini con una macchina
intelligente sarà libero di non farlo.
Anche oggi, d’altro canto, ci sono inguaribili diffidenti che non usano il
telefonino o il forno a microonde nel tentativo di tenere le tecnologie
lontane dalla vita di tutti i giorni, nei limiti del possibile.
Comunque sia, i laboratori che stanno progettando i robot amici
dell’uomo sono già all’opera in tutto il mondo. Che siano giganteschi
hangar negli Stati Uniti o ipertecnologici laboratori europei, stanno
costruendo macchine al limite della fantascienza, sul modello di quelle
immaginate nei racconti dell’antologia Io, Robot di Isaac Asimov e
protagoniste della versione cinematografica del 2004. Nel film si
immaginava che nel 2035 i robot sarebbero ormai diventati degli
elettrodomestici alla portata di tutte le tasche e presenti in tutte le case,
macchine intelligenti capaci di interagire con l’uomo, di muoversi con
delicatezza fra i mobili di casa e di imparare a fare di tutto, perfino a
cucinare.
E sono proprio gli anni attorno al 2035 il periodo che molti esperti di
robotica indicano come il momento in cui tutto sarà pronto perché ogni casa
possa avere il suo robot.
Che aspetto avranno? Nessuno, al momento, lo sa di preciso. Potrebbero
avere braccia e gambe, o forse no. Sicuramente saranno diversi dai tanti
automi metallici immaginati dal cinema o dai libri di fantascienza e il loro
aspetto potrebbe non ricordare quello umano. Magari somiglieranno di più a
un cartone animato. Di sicuro i progettisti faranno di tutto perché queste
macchine possano ispirare simpatia.
Simpatico, rassicurante ed efficiente: sono queste le tre qualità che ogni
futuro robot domestico dovrà avere.
Che cosa sapranno fare? All’inizio saranno programmati per svolgere
compiti molto specifici, come prendersi cura delle persone anziane, ma il
vero obiettivo è costruire dei tuttofare capaci di imparare accumulando
esperienza.
Dovranno saper interagire con l’uomo in modo delicato, regolando di
conseguenza la forza e la pressione. Questo vale tanto per i robot destinati
alle case, quanto per quelli che avranno a che fare con l’uomo anche in altri
modi: come i droni da utilizzare per recapitare posta o merci volando sulle
città, oppure i robot in miniatura capaci di navigare nel corpo umano per
consegnare al posto giusto farmaci, o ancora automi specializzati nelle
operazioni di soccorso in zone difficilmente accessibili o rischiose per
l’uomo, per esempio in caso di crolli, terremoti o incidenti a centrali
nucleari o a stabilimenti che producono sostanze pericolose.
La cosa certa è che, per chi li vorrà, arriveranno robot capaci di entrare
nelle case e prendersi cura di cose e persone 24 ore su 24. È solo una
questione di tempo prima che possiamo trovarli esposti negli scaffali dei
negozi di elettronica, proprio come lo sono già oggi i piccoli robot
specializzati nel pulire i pavimenti.
Quella dei robot amici dell’uomo è un’avventura già iniziata perché le
basi per costruire le macchine intelligenti che ci aiuteranno in casa e fuori si
stanno gettando proprio adesso.
Andarle a scoprire in questo libro è un assaggio del futuro.
Capitolo 1

LEONARDO, IL CAVALIERE,
L’ANDROIDE

La lunghissima barba bianca che incornicia il volto solenne e solcato dalle


rughe, lo sguardo austero e intenso che sotto le sopracciglia folte scruta
tutto ciò che accade intorno, le mani appoggiate sulle ginocchia… è
impossibile non riconoscerlo: è Leonardo da Vinci. Anzi, il suo androide.
L’ha costruito in Giappone il gruppo di Minoru Asada, dell’università di
Osaka, con l’intenzione di portare all’Expo 2015 un contributo memorabile.
In effetti l’androide di Leonardo da Vinci è il primo robot ispirato a un
personaggio storico e la scelta non è avvenuta per caso. Asada è convinto
che “se Leonardo fosse vivo, oggi lavorerebbe nella robotica”.
Ha ragione perché, tra le fantastiche macchine progettate da Leonardo,
c’è stato anche un automa. Un automa-cavaliere, per la precisione, quindi
un umanoide. Leonardo lo aveva progettato intorno al 1495 in onore di
Ludovico Sforza, ma non si sa se lo abbia mai costruito. Il progetto,
disperso per moltissimo tempo, è stato ritrovato soltanto intorno al 1950.
Era contenuto in parte nel Codice Atlantico e in taccuini che risalgono al
periodo compreso fra il 1495 e il 1497, ma mettere insieme una descrizione
chiara e completa della macchina è stato un rompicapo. Tutti coloro che
hanno provato a ricostruirla, a partire dal 1996, non sono riusciti a trovare
una soluzione definitiva. Il problema non era nell’aspetto esteriore:
l’automa cavaliere indossava un’armatura della fine del Quattrocento, in
stile italo-tedesco. Per l’interno, invece, le cose erano state più complicate.
La struttura era in legno, con elementi in pelle e metallo; meccanismi basati
su carrucole e cavi permettevano all’automa di stare in piedi e seduto, di
alzarsi per salutare, di muovere le braccia, la testa e la mandibola, forse
emettendo i suoni prodotti da un meccanismo a percussioni che si trovava
nel torace. Probabilmente le gambe venivano mosse da manovelle esterne.
Riordinando i numerosi schemi che Leonardo aveva tracciato sui taccuini,
però, non tutto è tornato al suo posto e sul ruolo di alcuni meccanismi è
rimasto un punto interrogativo.

Figura 1.1 – Leonardo androide, realizzato dal gruppo di Minoru Asada, università di Osaka (fonte:
Research at the Osaka University).

Possiamo considerare Leonardo, il cavaliere meccanico che aveva


progettato e il Leonardo-androide i simboli di una lunghissima storia che ha
visto i robot trasformarsi da automi destinati al divertimento e allo
spettacolo in macchine dedicate al lavoro nelle fabbriche, e poi in
collaboratori dell’uomo destinati a entrare nelle case.
Il cavaliere meccanico di Leonardo non è stato il primo automa della
storia, molti altri ne erano stati costruiti in precedenza, nell’antica Grecia
come nell’antica Cina e nell’Egitto di Tolomeo: macchine realizzate per
divertire, incuriosire e stupire, a volte per dimostrare principi scientifici. Lo
stesso termine “automa” ha origini greche. Indica qualcosa che agisce di
propria volontà e venne utilizzato per la prima volta da Omero nell’Iliade
per descrivere i venti tripodi forgiati dal dio Efesto, in grado di muoversi
autonomamente grazie a ruote d’oro. Dai miti greci sono arrivate anche le
prime descrizioni di automi, macchine dall’aspetto umanoide come Talos, il
gigante di bronzo a guardia dell’isola di Creta e costruito anche questo da
Efesto, o come le statue animate inventate da Dedalo e citate da Platone nel
suo dialogo sulla virtù, il Menone. Ma Platone si era imbattuto anche in
macchine reali. Le aveva costruite Archita di Taranto, vissuto dal 428 al 360
a.C., e la più famosa era una colomba di legno cava all’interno e riempita di
aria compressa la cui fuoriuscita era controllata da una valvola regolata da
un sistema di contrappesi. Appoggiata sul ramo di un albero, la colomba
volava e saliva sempre più in alto non appena la valvola veniva aperta.
Circa un secolo più tardi ad Alessandria d’Egitto il greco Ctesibio (285-222
a.C.), celebre per gli orologi ad acqua e per altre grandi opere idrauliche,
utilizzava la stessa tecnologia per costruire automi, come un gufo capace di
muoversi e il primo orologio a cucù.
La passione per gli automi raggiunse anche il Medio Oriente, dove il
matematico e inventore Al-Jazari (1136-1206) aveva costruito un automa
umanoide dall’aspetto di una ragazza capace di servire il tè e altre bevande.
Sempre di Al-Jazari erano i quattro automi musicisti che suonavano a bordo
di una barca che galleggiava su un lago, allietando le feste reali: un gioco da
ragazzi rispetto ai 50 automi che aveva descritto nel suo Compendio sulla
Teoria e sulla Pratica delle Arti Meccaniche, con tanto di istruzioni per
costruirli.
Circa due secoli più tardi, in Europa, il matematico tedesco Johannes
Müller von Königsberg (1436-1476), più noto come Regiomontano,
costruiva un’aquila di legno in grado di volare. A metà del Cinquecento in
Inghilterra, nell’università di Cambridge, nel bel mezzo della
rappresentazione della commedia di Aristofane La pace si diffuse il panico
tra il pubblico per l’arrivo sulla scena di uno scarabeo volante così realistico
da essere additato come un’opera del demonio. Lo aveva costruito invece
uno studente, John Dee (1527-1608 o 1609), destinato a diventare
matematico e astronomo, astrologo ed esperto di filosofia occulta alla corte
della regina Elisabetta I.
Gli automi hanno continuato a lungo a essere protagonisti delle scene e
dei salotti per stupire e affascinare e nel Settecento hanno vissuto il loro
momento d’oro. Nel 1760 l’orologiaio tedesco Friedrich von Knauss (1724-
1789) aveva costruito un meccanismo in grado di suonare strumenti
musicali e di scrivere brevi frasi. Creò ben cinque scrivani meccanici e
nessuno aveva un aspetto umano. Il primo venne presentato in Francia nel
1753. Il meccanismo, di rame rivestito d’argento, era alto un metro e largo
68 centimetri ed era racchiuso in un contenitore in cima al quale si trovava
una mano che teneva una penna d’oca; solo successivamente la mano venne
collegata alla statuetta di una figura femminile. L’unico elemento mobile di
questo automa era il braccio, che si muoveva per intingere nel calamaio la
penna d’oca e per scrivere su un foglio di carta delle semplici frasi.
Circa venti anni più tardi è stata la volta delle bambole animate,
costruite fra il 1768 e il 1774 dalla famiglia svizzera di orologiai Jaquet-
Droz e considerate i predecessori dei computer. Erano una musicista, un
disegnatore e uno scrivano ed erano state realizzate da Pierre Jaquet-Droz
(1721-1790) e dal figlio Henri-Louis (1752-1791), in collaborazione con
Jean-Frédéric Leschot (1746-1824), anche lui svizzero. L’obiettivo iniziale
era attrarre nuovi clienti e incrementare le vendite di orologi, ma in
brevissimo tempo le tre bambole ebbero un successo straordinario.
La bambola musicista, composta da 2500 pezzi, suonava un organo e la
musica veniva effettivamente prodotta dall’automa schiacciando i tasti,
come fanno i musicisti in carne e ossa. Quando la bambola suonava, il busto
si muoveva accompagnando i movimenti delle mani, e così la testa e gli
occhi.
La seconda bambola, il disegnatore, era composta da 2000 pezzi e aveva
l’aspetto di un bambino. Era in grado di disegnare quattro diverse
immagini: un ritratto di Luigi XV, una coppia reale (probabilmente Maria
Antonietta e Luigi XVI), un cane accompagnato dalla scritta “mon toutou”
(il mio cagnolino) e Cupido che guidava un cocchio trainato da una farfalla.
Un meccanismo rotante faceva muovere le mani avanti e indietro, mentre
un altro sollevava la matita dal foglio. L’automa si muoveva sulla sedia e di
tanto in tanto soffiava sul foglio per rimuovere la polvere.
La terza bambola automa, lo scrittore, era la più complessa. Composta
da 6000 pezzi, per ciascuna lettera dell’alfabeto utilizzava un sistema simile
a quello che faceva funzionare il disegnatore. Grazie a questo meccanismo,
era in grado di scrivere testi di 40 caratteri, codificati su una ruota nella
quale le lettere venivano selezionate una a una. La bambola scriveva con
una penna d’oca, che intingeva regolarmente nell’inchiostro e che poi
agitava con un rapido movimento del polso per evitare di sgocciolare sul
foglio. Il successo delle bambole meccaniche fu tale da renderle famose nel
mondo, facendo degli automi un’attrazione irresistibile.
A questo incredibile successo contribuì anche il francese Jacques de
Vaucanson (1709-1782) con le sue macchine capaci di suonare, disegnare e
volare. Nel 1737 costruì il suonatore di tamburino, che aveva un repertorio
di 12 canzoni, e l’anno successivo lo presentò all’Accademia delle Scienze,
che ne apprezzò la meccanica innovativa. Il più celebre dei suoi automi era
l’anatra meccanica, del 1739, composta da oltre 400 parti mobili: sapeva
agitare le ali e allungare il collo per mangiare e bere e, soprattutto, digeriva.
Ovviamente all’interno dell’automa non aveva luogo alcun processo di
digestione reale. In realtà il cibo veniva raccolto in un contenitore interno e
le feci, preinserite in un altro scomparto, venivano espulse da un secondo
contenitore.
La macchina era solo in parte trasparente e consentiva agli spettatori di
intravedere una parte del meccanismo, lasciando fantasticare il pubblico su
quell’automa prodigioso. Esposta al Palais-Royal nel 1744, l’anatra è stata
purtroppo distrutta nel 1879 nell’incendio del museo russo di Nižnij
Novgorod.
Anche le teste parlanti costruite nel 1783 dall’abate Mical attirarono un
grandissimo interesse sia del pubblico, sia dell’Accademia francese delle
Scienze.
Figura 1.2 – I meccanismi dell’anatra di Vaucanson.

La moda degli automi impazzava anche in Giappone, dove l’ingegnere e


inventore Hisashige Tanaka (1799-1881) aveva costruito macchine capaci
di servire il tè e dipingere. All’età di 20 anni cominciò a costruire bambole
animate da meccanismi basati su molle e pistoni e capaci di movimenti
relativamente complessi, che andavano per la maggiore tra gli aristocratici
del tempo. Tuttavia una decina di anni più tardi la moda era già passata e, a
partire dal 1834, a Osaka, si dedicò alla progettazione di altri meccanismi,
tanto da conquistarsi la fama di Thomas Edison del Giappone. Nel 1875 le
bambole erano un lontano ricordo e tutte le energie di Hisashige Tanaka
erano rivolte all’azienda che aveva appena fondato, la Toshiba.
Tornando in Europa, il successo degli automi era stato tale che qualcuno
pensò di approfittare della situazione. Nel 1769 l’ungherese Wolfgang von
Kempelen (1734-1804) divenne celebre in tutto il mondo occidentale con il
suo Turco, che presentava come un automa capace di giocare a scacchi.
Apparentemente un manichino spostava i pezzi su una scacchiera
appoggiata su un grande contenitore al cui interno avrebbero dovuto
trovarsi gli ingranaggi. Questi, però, lasciavano libero uno spazio
sufficiente ad accogliere una persona di piccola statura e abilissima negli
scacchi. Così nascosto, il giocatore riusciva a seguire le mosse
dell’avversario grazie a magneti fissati sotto i pezzi degli scacchi, mentre
alla luce di una candela seguiva l’andamento della partita su una piccola
scacchiera, studiando le mosse che avrebbe fatto il presunto automa e
guidandole spostando le braccia. Il fumo di due candele accese sul
contenitore, accanto alla scacchiera, confondeva quella della candela
nascosta, che usciva dal turbante del manichino. Il segreto del Turco venne
rivelato soltanto nella seconda metà dell’Ottocento.
Questa lunghissima tradizione di macchine destinate al divertimento è
andata gradualmente esaurendosi. La moda passò, ma accadde qualcosa di
nuovo: il 25 gennaio 1921 nel Teatro nazionale di Praga andò in scena il
dramma fantascientifico R.U.R. di Karel Čapek. Il titolo era l’acronimo di
“Rossumovi univerzální roboti”, ossia “i robot universali di Rossum”: per la
prima volta veniva utilizzato il termine “robot”, derivato dalla parola ceca
“robota”, che significa “lavoro pesante”. Ad associare agli automi il termine
“robot” non era stato però Čapek: lo stesso drammaturgo disse che l’idea
era stata di suo fratello Josef. Nel dramma i robot erano esseri sintetici fatti
di materia organica, costruiti per alleggerire gli uomini dai lavori più
faticosi. Oltre al nome, per gli automi c’era un’altra novità: per la prima
volta dopo secoli abbandonavano il divertimento per essere associati al
lavoro.
Il nuovo destino cominciò a realizzarsi nel 1937 con l’arrivo di
Gargantua, il grande braccio robotico capace di sollevare blocchi di legno e
di sovrapporli in strutture ordinate. Era una macchina imponente, simile a
una gru, progettata e realizzata nel 1937 dal canadese Griffith P. Taylor, di
Toronto. La rivista che presentò Gargantua al pubblico, il Meccano
Magazine, nel marzo 1938 descriveva la macchina come il frutto di una
visione del futuro nella quale il lavoro dell’uomo non sarebbe più stato
necessario per realizzare i progetti di ingegneri e architetti.
La storia dei robot aveva voltato pagina. Un altro cambiamento
importante arrivò quando i robot si trasformarono in macchine con comandi
elettronici. Autore di questo cambiamento radicale è stato William Grey
Walter (1910-1977), un neurofisiologo di nazionalità britannica nato negli
Stati Uniti. Costruì i primi robot elettronici autonomi fra il 1948 e il 1949.
Si chiamavano Machina Speculatrix, Elmer ed Elsie, ma si erano
conquistati il nomignolo di tartarughe sia per la forma, leggermente curva e
basata su tre ruote, sia per la lentezza dei loro movimenti.
C’erano ormai tutti gli ingredienti perché i robot facessero il grande
passo per entrare a tutti gli effetti nel mondo del lavoro.
A rendere possibile questo salto di qualità fu l’americano George Devol
(1912-2011), che nel 1954 brevettò il primo robot e che due anni più tardi
fondò, insieme a Joseph F. Engelberger, la prima azienda specializzata in
robot, la Unimation. È lì che nel 1956 venne prodotto Unimate, un braccio
robotico programmabile per trasferire oggetti da un punto a un altro. Nel
1961 Unimate fu venduto a un’azienda, la General Motors, che lo utilizzò
per sostituire l’uomo in compiti pericolosi, come prelevare parti di metallo
incandescenti dalla macchina per la pressofusione e saldarle.
Un altro braccio robotico venne costruito nel 1969 da Victor
Scheinman, dell’università californiana di Stanford. Era capace di
movimenti molto articolati e, grazie a queste caratteristiche, poteva essere
utilizzato per compiti complessi, come assemblare e saldare. Un secondo
braccio robotico progettato da Scheinman, questa volta al Massachusetts
Institute of Technology (MIT), si chiamava Mit Arm. Venne venduto alla
Unimation, che sviluppò ulteriormente il progetto in collaborazione con la
General Motors e lo mise sul mercato con il nome di Puma (Programmable
Universal Machine for Assembly).
Anche in Europa la robotica industriale si sviluppò rapidamente e i
primi robot destinati alle fabbriche arrivarono sul mercato nel 1973. Non
erano degli umanoidi: il primo modello, chiamato Famulus, aveva ben sei
bracci articolati e venne sviluppato dalla tedesca Kuka Robotics. Era stato
uno dei primi robot articolati. Nell’anno successivo la ABB Robotics
produceva IRB 6, che fece il suo ingresso nel mondo del lavoro in Svezia,
dove venne utilizzato per pulire le tubature. Nell’arco di una decina di anni
l’interesse per i robot industriali continuò ad aumentare progressivamente,
fino a vivere un vero e proprio boom nel 1984. In quell’anno la Unimation
venne acquisita dalla statunitense Westinghouse Electric Corporation per
107 milioni di dollari. Nel 1988 l’azienda venne venduta ancora, alla
francese Stäubli Faverges SCA, che nel 2004 ha venduto la sua divisione di
robotica alla Bosch. In breve tempo i bracci robotici sono diventati una
presenza indispensabile nelle fabbriche e, tutto sommato, quasi scontata.
Ma perché parlare di macchine come queste se finora tutta l’attenzione
si è concentrata sugli automi umanoidi? Perché le storie di entrambi
finiscono per confluire, aprendo insieme una nuova pagina nell’evoluzione
degli automi. Dopo i robot industriali, grandi, pesanti e programmati in
modo rigido, l’idea è rendere i robot più sicuri nel contatto fisico con
l’essere umano. Se i robot industriali degli anni Ottanta erano programmati
per un unico compito e all’interno delle fabbriche occupavano gli spazi che
venivano loro rigorosamente assegnati, dagli anni Novanta in poi la
scommessa è diventata portare i robot dentro le case, condividendo con
l’uomo lo spazio che gli è più familiare. Uno scenario che già allora gli
esperti prevedevano si sarebbe trasformato in realtà in pochissimi decenni.
La nuova sfida è costruire robot capaci di soddisfare i numerosi requisiti
necessari per assistere gli anziani, giocare con i bambini, fare le pulizie o
preparare la cena. A questo obiettivo stanno lavorando ricercatori come
Minoru Asada, il papà del Leonardo androide. Il suo obiettivo è, appunto,
trasformare i robot in compagni dell’uomo nella vita quotidiana. “In
Giappone non consideriamo il robot un nemico, ma un membro della
famiglia, un collaboratore”, ha detto Asada, convinto che “in futuro i robot
contribuiranno allo sviluppo della nostra società” e fiducioso che “un
giorno possano davvero sostituire gli uomini in alcuni compiti che per
l’uomo sono molto faticosi o particolarmente difficili”.

Robot, automi, androidi e cyborg


Robot, automi, androidi, cyborg: sembrano la stessa cosa, ma
non è così. Conoscere le differenze è utile per esplorare al
meglio il mondo di queste macchine, dalle più antiche a quelle
immaginate dalla fantascienza.
Robot: è una macchina in grado di sostituire l’uomo
nell’esecuzione di alcuni lavori. La sua forma ricorda l’aspetto
umano, come nel caso dei robot antropomorfi, oppure
componenti del corpo umano, come i bracci robotici.
Automa: è una macchina che compie operazioni obbedendo a
un insieme di istruzioni molto rigide.
Androide: è un essere artificiale dall’aspetto simile a quello
umano anche nelle caratteristiche del volto e nei materiali che
lo costituiscono. Al momento sono creature della fantascienza.
Cyborg: sono organismi cibernetici risultato di una
combinazione di elementi meccanici e biologici, per questo
vengono definiti anche uomini bionici. Macchine del genere
non esistono ancora, ma se ne vedono i primissimi segnali nelle
protesi bioniche, soprattutto mani artificiali controllate dal
pensiero e progettate per chi ha subito delle amputazioni.
Capitolo 2

GENTILI, SIMPATICI E CAPACI DI


IMPARARE

Dalle pareti a vetri del laboratorio si percepisce un certo fermento. In tanti,


chi in piedi e chi seduto, sono indaffarati attorno al piccolo robot. Sulla
mano bianca dell’automa sono attaccate sottili strisce nere, grandi
pressappoco come un cerotto. A prima vista si potrebbero scambiare per
nastro isolante, ma naturalmente non è così. Sono fatte di un materiale
molto sofisticato al cui interno è racchiusa una rete di sensori. In pratica è
come se le dita del robot si foderassero con una pelle hi-tech grazie alla
quale la macchina può percepire il tatto e la pressione. Il robot che sta
provando la nuova pelle è probabilmente uno dei più diffusi nei laboratori
di tutto il mondo, dagli Stati Uniti al Giappone, passando per l’Europa. Si
chiama iCub, è alto poco più di un metro e pesa 29 chili. Il viso
tondeggiante ispira simpatia come quello di un bambino, con due grandi
occhi capaci di seguire gesti e oggetti. La bocca, come le sopracciglia, è
tracciata da una sottile linea luminosa.
Pensato all’interno di un progetto europeo, RobotCub, che riunisce
diverse università europee, iCub è stato costruito in Italia, dall’Istituto
Italiano di Tecnologia (IIT), ed è nato per essere un banco di prova per le
ricerche sull’apprendimento e sull’intelligenza artificiale. Il suo nome è
l’acronimo di Cognitive Universal Body ed è un robot open source, ossia è
basato su software liberamente accessibili.
Figura 2.1 – iCub, il robot bambino (fonte: Jiuguang Wang).

La sua costruzione è cominciata nel 2004 e iCub ha fatto il suo debutto


in società nel 2009, quando è stato presentato al Festival della Scienza di
Genova. Immediatamente è diventato una celebrità e alla sua fama ha
contribuito non poco il fatto che fosse l’equivalente di un bambino di
cinque anni, capace di crescere imparando giorno per giorno qualcosa di
nuovo, come afferrare oggetti, riconoscerli e memorizzare i loro nomi,
pronunciare le prime parole e fare i primi passi. Questo è stato possibile
grazie ai sistemi di apprendimento che gli esperti dell’IIT hanno messo a
punto in collaborazione con i loro colleghi americani del MIT. Per il
ricercatore che lo ha costruito, Giorgio Metta, questo piccolo robot è “una
Ferrari della ricerca”. Più che un miracolo di ingegneria, infatti, iCub è un
insieme senza precedenti di idee innovative e non è un caso che tra le 80
persone che vi lavorano gli ingegneri sono molto numerosi, ben il 40%.
La stessa squadra dominata dalla creatività ha lavorato alla versione
avanzata di iCub: la faccia ingenua e simpatica è ancora la stessa, ma la
capacità di comunicare è aumentata di pari passo con la sua complessità.
Basti pensare che la nuova versione è composta da 4800 parti, tante quante
quelle che compongono un’utilitaria. È in grado di muoversi in modo più
fluido grazie a ben 53 articolazioni, o gradi di libertà, come li definiscono
gli esperti di robotica, e pesa 29 chili. Dai polpastrelli delle mani alla pianta
dei piedi è rivestito di pelle (un sottilissimo strato di sensori tattili derivati
dalla tecnologia del touch screen e brevettati in quattro continenti) che gli
permette di interagire con l’ambiente in cui si trova e con l’uomo. Per
costruirne uno sono necessari da sei mesi a un anno di lavoro. Il suo
successore, ossia la terza versione di iCub, dovrebbe arrivare a imitare i
movimenti umani grazie a 59 gradi di libertà, saper camminare in maniera
più naturale, avere una percezione migliore, elaborando più velocemente i
segnali visivi e tattili, ed essere più robusto. Potrebbe costare fino a 300.000
euro.
Sarà uno dei fratelli maggiori di iCub a entrare nelle nostre case?
No, non sarà così, perché anche la versione evoluta di iCub è destinata
ai laboratori, da quelli specializzati nella robotica a quelli impegnati nelle
nuove frontiere dell’intelligenza artificiale. Ma se prima o poi in ogni casa
ci sarà un robot bisognerà ringraziare macchine come iCub, insieme alle
decine e decine di robot usciti dai laboratori di tutto il mondo a partire dagli
anni Ottanta, che sappiano camminare su due gambe o scorrere su ruote,
che abbiano una testa con due occhi oppure un semplice display, mani con
cinque dita o delle pinze.

Le tecnologie robotiche hanno fatto progressi notevolissimi negli


ultimi anni, ma probabilmente il vero cambiamento è avvenuto
dentro i robot, piuttosto che fuori,

osserva Paolo Dario, direttore dell’Istituto di Biorobotica della Scuola


Superiore Sant’Anna di Pisa. Nel giro di pochi anni nel corpo e nel cervello
dei robot è avvenuta una rivoluzione: microtelecamere, sensori di pressione
e di contatto, accelerometri, giroscopi, sensori di temperatura, chimici e di
campo magnetico, antenne varie sono diventati la loro vista, il tatto, li
hanno messi in grado di orientarsi e di mantenere l’equilibrio. Il fatto
interessante è che questi componenti sono diventati accessibili e affidabili
perché fabbricati in grandi quantitativi per il mercato degli smartphone. Per
questo gli esperti osservano, scherzando ma non troppo, che i robot più
recenti possono essere considerati sempre più come dei “telefoni cellulari
con braccia, gambe o ruote”.
All’inizio degli anni 2000, però, la situazione era molto diversa. I robot
cominciavano allora a controllare i movimenti in modo da poter compiere
delle operazioni complesse e la strada per renderli gentili e sicuri
nell’interazione con l’uomo è stata lunga e non facile. Bisognava infatti
affrontare un cambiamento importante, passando dai movimenti, precisi ma
ripetitivi, ai quali erano abituati i robot che da tempo lavoravano nelle
fabbriche, ad azioni nuove e in un certo senso più umane, come montare dei
giochi di costruzioni o ballare danze tradizionali giapponesi.
Nella Conferenza Internazionale di Robotica e Automazione (ICRA) del
2007 si potevano incontrare piccoli robot su rotelle che si muovevano tra la
gente senza urtare nessuno: i loro sensori permettevano di accorgersi in
tempo di persone e ostacoli, evitando gli uni e gli altri. C’erano anche robot
antropomorfi alti come un essere umano che si muovevano a piccoli passi,
come bambini che imparano a camminare, e robot che sapevano imparare,
guidati al movimento da compiere grazie a un breve addestramento.
Uno dei prototipi era Light Weight, un braccio robotico progettato
dall’Agenzia spaziale tedesca (DLR) e costruito con leghe leggerissime.
Una serie di sensori distribuiti lungo l’intero braccio permetteva al robot di
distribuire la forza, e perciò di sollevare oggetti con un peso pari al suo, ma
anche di riconoscere un impatto e di attutirlo, frenando in pochi
millisecondi e ritraendosi. Per insegnargli un movimento era sufficiente
guidarlo una volta.
Probabilmente il primo robot a racchiudere tutte le caratteristiche
necessarie per piacere all’uomo e per muoversi in modo sicuro nella sua
casa è stato Asimo, il robot umanoide costruito in Giappone dal centro
ricerche della Honda. Alto un metro e 30 centimetri, il corpo bianco e la
testa simile a un casco da motociclista con la visiera scura, Asimo è
diventato in breve tempo un’icona. Il suo nome sta per Advanced Step in
Innovative MObility ed è stato progettato per assistere le persone non
autonome, come gli anziani o chi non è in grado di camminare. La ricerca
che ha portato a realizzarlo era cominciata nel 1986 e il robot è stato
presentato ufficialmente nel 2000. Quel debutto è stato tutt’altro che un
punto di arrivo perché da allora gli aggiornamenti sono stati continui. Nel
2005 la fama di Asimo era già così grande da portarlo a Disneyland per
regalare un’anticipazione del futuro all’interno di Innoventions, l’attrazione
californiana di Anaheim chiusa nel 2015. Ma non basta: nel 2008 questo
robot ha perfino diretto la Detroit Symphony Orchestra.
Al di là di tutte queste abilità spettacolari la preoccupazione del
ricercatore che lo ha progettato, Satoshi Shigemi, è stata sempre e soltanto
una:

Costruire un robot che potesse essere accettato dalle persone.

Per questo a un certo punto è avvenuto un salto nella progettazione di


questo robot e la nuova versione presentata nel 2014 a Bruxelles non a caso
è stata chiamata All-New Asimo. Oltre a saper camminare e correre con
maggior sicurezza, a essere in grado di saltellare su una gamba sola,
dimostrando di avere un ottimo equilibrio, il nuovo Asimo sa riconoscere i
movimenti degli esseri umani che lo circondano e tiene conto di tutto ciò
che i suoi sensori registrano per decidere, da solo, dove è più opportuno
andare e quando. Braccia e mani di questo robot non sono da meno: molto
più complesse rispetto a quelle delle versioni precedenti, permettono al
robot di eseguire compiti complessi, come sollevare una bottiglia di vetro e
svitarne il tappo, o tenere in mano un bicchiere di carta con la giusta forza
mentre lo riempie con un liquido. Presentando questa nuova versione di
Asimo, Satoshi Shigemi aveva detto:

È una macchina completamente diversa. In pratica dalla “macchina


automatica” che era all’inizio, è diventata una “macchina
autonoma”, con capacità che le permettono di prendere decisioni
grazie alle quali può adattare in tempo reale il suo comportamento
all’ambiente esterno.

All-New Asimo è diventato un robot autonomo soprattutto grazie a tre


carte vincenti: avere un ottimo equilibrio, riconoscere l’ambiente che lo
circonda e analizzare in autonomia i cambiamenti che gli avvengono
intorno, senza essere controllato da un operatore.

L’ambiente in cui lavoriamo o viviamo è dinamico e cambia


continuamente, così Asimo ha bisogno di essere in grado di adattarsi
da solo, rapidamente e con sicurezza. Il nostro obiettivo – aveva
detto ancora Satoshi Shigemi – è realizzare un robot che partecipi e
si adatti alla vita quotidiana degli uomini, parlando con loro e
aiutandoli in compiti semplici. Ritengo che un robot del genere
possa rendere la vita più comoda e confortevole, portando valori
completamente nuovi.

Vale a dire, aveva aggiunto, che:

Attraverso la nostra ricerca puntiamo a realizzare un robot simile a


un sogno, che un giorno potrà diventare un membro della famiglia.

Lo sforzo di rendere i robot sempre più simili all’uomo è stato invece


preso alla lettera, in modo scherzoso, dai costruttori di Hubo, il robot
coreano che ha indossato una testa molto meno anonima: nientedimeno che
la versione androide della testa di Albert Einstein, con tanto di baffi,
sopracciglia e lunga capigliatura candida. Questo Albert Einstein Hubo,
come è stato chiamato, è nato dalla collaborazione fra l’Istituto Coreano
Avanzato di Scienza e Tecnologia (KAIST), che ha realizzato la versione
originale del robot, e l’azienda texana Hanson Robotics, attiva dagli anni
Ottanta e specializzata nella realizzazione di robot con espressioni facciali
che imitano quelle umane. Alto 137 centimetri e pesante 57 chili, Hubo sa
camminare e il suo punto di forza sono le mani, che gli permettono perfino
di giocare alla morra cinese, mimando in modo alternato sasso (pugno
chiuso), carta (mano aperta con le dita stese) e forbici (mano chiusa con
indice e medio aperti a V).
Figura 2.2 – Asimo che si cimenta come direttore d’orchestra (fonte: Vanillase).

Muoveva le mani abilmente anche Walking Trumpet, il robot umanoide


sviluppato dalla giapponese Toyota e che sapeva suonare la tromba. Come i
suoi predecessori, anche questo robot era stato concepito come un prototipo
delle future macchine destinate a prendersi cura dell’uomo, in particolare
degli anziani.
Possiamo dire lo stesso per un altro robot musicista della Toyota, il
violinista realizzato nel 2007 e presentato all’Expo di Shanghai del 2010.
Nella stessa occasione aveva debuttato Miim, la robottina adolescente
realizzata dall’Istituto giapponese per la tecnologia e la ricerca industriale
(AIST). Miim, il cui nome tecnico è HRP-4C, è stata fra i primi robot
antropomorfi dall’aspetto femminile. Alta 158 centimetri e pesante 43
chilogrammi, aveva il viso di un’adolescente giapponese, incorniciato da
capelli neri con la frangia e poteva assumere espressioni diverse grazie a
otto motori, inoltre parlava e riconosceva le parole. Altri 30 motori le
permettevano di muoversi con una certa naturalezza, tanto che Miim si è
esibita anche in alcuni passi di danza.
Tutte queste macchine sono straordinarie e tutte sono sperimentali:
prototipi che, in modi più o meno spettacolari, sono stati realizzati per
essere il banco di prova di nuove tecnologie. Di tutti i robot umanoidi
realizzati a partire dal 1980, si contano ancora sulla punta delle dita quelli
entrati in commercio.
È il caso di iCub, che come abbiamo visto viene venduto ai centri di
ricerca. Viene venduto ai laboratori, come piattaforma liberamente
accessibile a chiunque voglia sviluppare un robot, anche l’umanoide
giapponese Open Pino Platform, o più semplicemente Pino. Inutile andare
in cerca di strani termini tecnici dietro questo nome: non è un acronimo.
Molto più semplicemente il robot è dedicato a Pinocchio, il burattino della
fiaba di Carlo Collodi. Non aspettatevi però un robot con un lungo naso
appuntito: quello che Pino ha in comune con il più celebre dei burattini è il
desiderio di diventare un bambino. Questo robot, alto 70 centimetri e
pesante meno di cinque chili, è stato realizzato perché potesse crescere ed
elevarsi dallo status di semplice oggetto.

Pinocchio, la cui storia non ha bisogno di spiegazioni, sembra una


metafora adatta per la nostra ricerca di qualità umane all’interno
delle strutture meccaniche della nostra creazione,

hanno spiegato i ricercatori che lo hanno costruito, coordinati dal


giapponese Hiroaki Kitano, dell’università di Okinawa, nonché capo del
Systems Biology Institute (SBI), presidente e amministratore delegato dei
laboratori di Computer Science della Sony. È stato anche inventore del
primo robot animale, il cane Aibo (Artificial Intelligence Robot) costruito
nel 1998 e seguito da molti altri modelli di animali robotici.
È di casa nelle università e nei laboratori anche un altro robot umanoide
in miniatura: Hoap (Humanoid for Open Architecture Platform), costruito
dall’azienda giapponese Fujitsu Automation, che ha messo in vendita il
primo esemplare nel 2001. Allora Hoap era alto 48 centimetri e pesava sei
chili, sapeva camminare su due gambe e aveva interfacce che gli
permettevano di comunicare con l’uomo. Nei quattro anni successivi sono
state messe a punto due versioni avanzate, Hoap 2 e Hoap 3, quest’ultima
alta 60 centimetri e pesante poco meno di nove chilogrammi.
Dei primi robot in commercio, anche se solo per i laboratori di ricerca,
fa parte anche Nao, un altro umanoide costruito dall’azienda francese
Aldebaran Robotics, basato su una piattaforma liberamente accessibile. Il
suo sviluppo è cominciato nel 2004 e nel 2007 questo piccolo robot alto 58
centimetri era pronto per partecipare alla RoboCup Standard Platform
League (SPL), la competizione che vede robot di tutto il mondo scendere in
campo per sfidarsi giocando a calcio. Come i suoi colleghi, Nao è cresciuto
in fretta e nel giro di una decina di anni si è evoluto in più versioni, vendute
in migliaia di esemplari in università e centri di ricerca di tutto il mondo,
dall’India al Montana. È stato concepito come un robot da compagnia
gentile, interattivo e personalizzabile, nel senso che ognuno può
perfezionarlo con applicazioni su misura per le sue particolari necessità, e
Nao ha dimostrato di essere davvero molto versatile, considerando che una
delle sue versioni avanzate si è esibita in una danza a fianco di ballerini
umani che ha affascinato e divertito il pubblico in Europa e negli Stati
Uniti.
Ha un aspetto simile a Nao un altro robot da compagnia, Alpha 2,
realizzato in Cina, a Shenzhen, dall’azienda Ubtech Robotics. Alto 43
centimetri e pesante poco più di 2 chilogrammi, si muove, risponde ai
comandi vocali, riconosce i visi e l’ambiente che lo circonda.
Nel 2009 è stata la volta di Romeo, il robot umanoide nato come banco
di prova per i futuri robot capaci di prendersi cura di persone anziane e non
più autonome. Progettato da un gruppo di centri di ricerca europei e
costruito dall’azienda francese Aldebaran Robotics, anche Romeo in pochi
anni è diventato di casa in molti laboratori. Azzurro e bianco e con una
faccia ingenua e sorridente, questo robot è alto 140 centimetri: abbastanza
da potersi muovere meglio in casa e, per esempio, aprire le porte, salire le
scale e raggiungere oggetti appoggiati su un tavolo.
Queste macchine sono il risultato di anni di ricerche e conoscenze
grazie alle quali è possibile avere a disposizione gli ingredienti per i futuri
robot domestici capaci di interagire con l’uomo. In tutti i casi la parola
d’ordine è orientare la ricerca nella direzione di una sorta di alleanza uomo-
macchina, in nome delle celebri leggi della robotica proposte da Isaac
Asimov, secondo le quali i robot non possono fare del male all’uomo.
Un’alleanza, quella prevista da Asimov, che va suggellata da una stretta di
mano fra uomo e robot.
Sembra una battuta, ma non è così per le decine e decine di ricercatori
che da anni stanno progettando mani robotiche abbastanza forti da sollevare
pesi e delicate quanto basta per afferrare oggetti fragili e stringere una mano
umana. Perché le mani sono così importanti? Sono la parte più complessa e
costosa di un robot, progettata per compiere operazioni sofisticate come
manipolare gli oggetti. Per alcuni esperti, come Giorgio Metta, la mano ha
un ruolo centrale e, come è accaduto per iCub, “determinando la meccanica
della mano si determina tutta la meccanica del robot”. Riuscire a calibrare
la forza della macchina è uno dei compiti più complessi, così come riuscire
a renderla flessibile, capace di avvertire la pressione e darle la percezione
del tatto: è quello che gli esperti di robotica chiamano il “controllo di
forza”, ossia la capacità di gestire il contatto fra robot ed esseri umani in
totale sicurezza. Si è lavorato a lungo anche per costruire meccanismi
ridondanti, capaci di compensare immediatamente eventuali errori o guasti,
a garanzia della sicurezza. In una manciata di anni le mani robotiche hanno
subito una rapida evoluzione, diventando sempre più leggere e flessibili. A
questa evoluzione hanno contribuito anche materiali di nuova generazione e
sensori sofisticati. Le mani dei futuri robot potranno avere forme molto
diverse. In alcuni casi avranno cinque dita, proprio come le mani umane, e
saranno altrettanto articolate; potrebbero però anche avere solo tre dita,
oppure due, come delle specialissime pinze. Non è per niente semplice
costruire mani artificiali che imitino la complessità di quelle umane: devono
saper afferrare un oggetto con la giusta forza e con la sicurezza di non farlo
cadere, le dita devono avere una forma tale da poter manipolare molti tipi di
oggetti, da quelli sottili come un foglio di carta a un frutto, da una matita a
un essere vivente.
A partire dal 2009, però, ha cominciato a farsi strada una possibile
alternativa. Ha esordito faticosamente, ma poi si è andata affermando in
modo sempre più importante la cosiddetta robotica soffice, che ha portato a
macchine molto diverse seguendo, come vedremo in seguito, due differenti
scuole di pensiero. Da un lato sono stati messi a punto giunti capaci di
imitare la flessibilità delle articolazioni umane e, dall’altro, sono stati
utilizzati su materiali completamente diversi da quelli metallici, come il
silicone, nei quali vengono incorporati sensori.
Mentre i robot che lavorano nelle fabbriche usano le loro pinze
ripetendo in modo preciso gli stessi movimenti, i robot domestici dovranno
invece avere mani il più possibile simili a quelle degli uomini, per poterli
aiutare nelle loro case. Proviamo a immaginare un robot che pulisca il
bagno, che stiri o che spolveri: dovrà avere mani che, come le nostre, sono
capaci di sollevare decine di chili, di stringere oggetti e di spostarli senza
farli cadere, di afferrarne altri delicatamente. Riuscire a realizzarle è una
delle sfide che la robotica sta affrontando.
L’altro ingrediente fondamentale per costruire robot capaci di interagire
con l’uomo è l’intelligenza artificiale. La scommessa è ottenere robot
dall’intelligenza simile a quella umana e un assunto alla base delle teorie
sull’intelligenza artificiale prevede che, per avere intelligenze simili, è
necessario avere forme simili. C’è una connessione fra pensiero e
movimento che rende più facile interagire con i robot umanoidi: è per
questo motivo che quasi tutti i robot destinati alla ricerca sono umanoidi. Ed
è per questo che i colossi industriali che hanno deciso di puntare sui robot
hanno cominciato a investire moltissimo sull’intelligenza artificiale. Lo ha
fatto Facebook, che ha attivato un gruppo di ricerca su una delle maggiori
aree in cui è attiva l’intelligenza artificiale, quella dell’apprendimento
automatico. Negli Stati Uniti la Toyota ha investito 1 miliardo di dollari in
un centro di Robotica e Intelligenza Artificiale e all’inizio del 2014 Google
ha acquisito la britannica DeepMind Technologies, dando vita alla Google
Deep Mind. Proprio in quest’ultima azienda è stato messo a punto il primo
sistema intelligente in grado di giocare a un videogioco proprio come
farebbe un uomo. A rompere il ghiaccio è stato uno dei videogiochi storici
più celebri, Space Invaders: un sistema chiamato DQN (Deep Q-Network),
basato sulla combinazione delle tecniche di apprendimento tipiche delle
macchine con le reti neurali ispirate alla biologia, ha imparato a giocare
proprio come farebbe l’uomo, ossia guardando le immagini e trovando la
strategia vincente sulla base dei punteggi totalizzati. Dopo Space Invaders,
DQN ha imparato a giocare ad altri 48 videogiochi, tutti semplici come
quelli degli anni Settanta ma tutti molto diversi fra loro (dalle corse di auto
alla boxe), e lo ha fatto a partire da pochissimi dati. Questo significa che il
sistema è in grado di compiere azioni complesse sulla base di pochissimi
elementi, come le immagini dei pixel del videogioco e il punteggio
ottenuto: non viene programmato per giocare secondo la strategia vincente,
ma scopre da solo il segreto per vincere, proprio come farebbe un
adolescente alle prime armi. La storia di DQN alle prese con i videogiochi
non è una semplice curiosità: secondo gli esperti segna l’inizio di una nuova
era dell’intelligenza artificiale, con l’arrivo di sistemi non programmati per
compiti specifici e con una capacità di apprendere finora inimmaginabile.
Tornando ai robot, per esempio, sistemi come DQN potrebbero aprire le
porte a computer sempre più intelligenti. Che l’intelligenza artificiale stia
facendo giganteschi passi in avanti lo dimostra anche il sistema chiamato
Data Science Machine: gli studenti del MIT che lo hanno messo a punto nel
2015 lo considerano “un complemento naturale all’intelligenza umana”. Il
sistema ha dimostrato infatti di superare l’intuito umano nella capacità di
analizzare dati e fare previsioni.

Le tre leggi della robotica


Le tre leggi della robotica sono l’insieme di regole che
riguardano la relazione fra robot ed esseri umani, proposte da
Isaac Asimov nel racconto Circolo vizioso (o Girotondo),
pubblicato nel 1942 sulla rivista Astounding Science Fiction e
successivamente nelle antologie Io, Robot (1950), Tutti i miei
robot (1982) e Visioni di robot (1990). Nel racconto le tre leggi
della robotica erano presentate da Asimov come le regole
contenute nell’edizione numero 56 dei Quaderni di Robotica,
pubblicata nel 2058.
La prima legge afferma che un robot non può danneggiare un
essere umano né può permettere che un uomo riceva un danno
a causa del proprio mancato intervento.
Per la seconda legge un robot deve obbedire agli ordini
impartiti dagli esseri umani, purché tali ordini non
contravvengano alla prima legge.
La terza legge, infine, prevede che un robot debba
proteggere la propria esistenza, purché questa autodifesa non
contrasti con la prima o con la seconda legge.
Capitolo 3

BADANTI, CUOCHI, TUTTOFARE: IN


ARRIVO I ROBOT DI CASA

I signori Asahi vivono in Giappone con i loro tre figli, il nonno e Pepper, il
robot di casa. Una foto li ritrae sorridenti attorno al piccolo robot bianco dai
grandi occhi tondi e scuri e la bocca appena accennata, che gli danno l’aria
ingenua di un bambino. La famiglia Asahi non è stata la prima al mondo a
sperimentare la convivenza con un robot: altre, anche se molto poche,
hanno già condiviso la casa con una macchina. Di sicuro, però, la famiglia
Asahi è quella cha ha visto il futuro più da vicino perché il robot che ha
adottato sa imparare e cresce di giorno in giorno, apprendendo cose nuove.
Ogni membro della famiglia gli ha insegnato qualcosa, a seconda delle sue
esigenze, e il robot ha imparato. Alto 120 centimetri e pesante 28 chili,
Pepper ha due braccia e non ha gambe, ma si sposta su ruote muovendosi
autonomamente in ogni stanza. È stato progettato per accompagnare l’uomo
nella vita di tutti i giorni e comunica sia grazie alla tecnologia del
riconoscimento vocale, analoga a quella che funziona sugli smartphone, sia
con un display sul torso. Sa quindi ascoltare e parlare, ma soprattutto sa
riconoscere i visi delle persone con cui vive e ne analizza i lineamenti per
capire se chi gli sta davanti è allegro o triste, arrabbiato o contento. Non è
tutto, perché Pepper sa manifestare delle emozioni, anche se molto
elementari. La luce azzurra che si accende attorno agli occhi, il tono di voce
e le immagini colorate che compaiono sul suo display sono i modi con cui
si esprime. Costruito dalla Aldebaran Robotics e dalla SoftBank Mobile nel
2015, Pepper è stato uno dei primi robot domestici e uno dei pochissimi
robot a essere stato messo in commercio, tra i circa 90 modelli diversi
completati fra il 1980 e il 2015.

Figura 3.1 – Pepper in abito da sera per il 28° Festival del Cinema di Tokyo (fonte: Dick Thomas
Johnson).

Possiamo dire che Pepper è una delle prime realizzazioni di un sogno


che da quasi un secolo ha acceso la fantasia sul futuro e su come sarebbe
stato il mondo nel 2000. Quasi 80 anni fa, per esempio, un filmato
immaginava un robot domestico di nome Roll-Oh: un gigantesco scatolone
di latta con braccia e gambe che nel futuro avrebbe potuto muoversi in casa
per andare ad aprire la porta e ricevere pacchi dal postino, lavare i piatti,
preparare la cena o semplicemente offrire il suo braccio meccanico come
supporto su cui appoggiare il telefono.
Risale all’inizio degli anni Quaranta, però, anche un robot umanoide
perfettamente funzionante. Non era uscito da un laboratorio di ricerca, ma
dal garage dei genitori di un ragazzino britannico di 12 anni, Tony Sale, che
continuò a perfezionare il suo robot George fino al 1949, realizzandone più
versioni. Il robot George era un umanoide, camminava e muoveva sia le
braccia sia la sua testa cilindrica, sormontata da un curioso copricapo
appuntito, aveva gli occhi che si illuminavano grazie a due lampadine,
muoveva la bocca con l’aiuto di un telecomando, aveva grandi orecchie
bucherellate e un naso cilindrico la cui punta accesa mostrava la scritta “on”
quando era attivo. Sale lo ha riattivato nel 2010, un anno prima di morire,
sostituendo le due vecchie batterie di motocicletta con più moderne batterie
al litio e poi lo ha donato al Museo britannico dell’Elaborazione a Bletchley
Park, nell’Inghilterra sud-orientale, dove è ora esposto.
Ancora negli anni Ottanta i robot progettati per interagire non erano in
grado di svolgere compiti pratici ed erano soprattutto delle curiosità, quasi
oggetti da collezione. È stato il caso di Hero (Heathkit Educational RObot),
ideato nel 1979 dall’azienda americana Heath Company. A partire dal 1982
fino al 1995, anno in cui la produzione è cessata, ne sono stati venduti
14.000 esemplari. Sono state prodotte diverse versioni chiamate Hero 1,
Hero Jr e Hero 2000, nessuna di esse era antropomorfa: tutte, chi più chi
meno, avevano un aspetto massiccio e rigido simile a quello di uno
scatolone pieno di tasti.
Un altro progenitore dei robot da compagnia, Topo, aveva una testa con
una faccia che, per quanto stilizzata, gli dava un’aria simpatica, con due
occhi tondi e scuri e la bocca a forma di triangolo. Il corpo era spigoloso e
non aveva gambe, ma due ruote inclinate. Progettato a partire dal 1983
dall’americana Androbot, Topo era stato concepito come un prototipo di
robot da compagnia. Il suo software gli permetteva di muoversi in una
stanza, eseguendo alcune azioni semplici, ma la sua ultima versione non
aveva braccia né sensori per ricevere comandi.
I robot che condividono le case degli uomini sono stati immaginati
molto spesso nei libri di fantascienza e altrettanto ha fatto il cinema. Basti
pensare al film Io, Robot ispirato ai racconti di Asimov, nel quale furgoni
pieni di robot appena sfornati dalla fabbrica uscivano a decine e decine
nelle strade per essere consegnati nelle case, mentre intorno a loro altri
robot già in servizio erano indaffarati a fare la spesa o a sbrigare
commissioni per i loro umani. Ormai questo scenario non è troppo lontano e
lascia immaginare un futuro nel quale le fabbriche di robot potranno essere
una realtà e nel quale i robot potranno avere una diffusione confrontabile a
quella delle automobili o degli elettrodomestici. Vale a dire che avere un
robot domestico sarà lo stesso che avere oggi un’automobile, una lavatrice
o una lavastoviglie.
Uno dei primi a concepire uno scenario simile come realistico e non
troppo lontano nel tempo è stato il fondatore della Microsoft, Bill Gates,
nell’articolo intitolato, appunto, Un robot in ogni casa, pubblicato sul
mensile Scientific American il primo gennaio 2007.

Immagino un futuro nel quale dispositivi robotici diventeranno


quasi onnipresenti nella vita quotidiana,

scriveva Bill Gates, convinto che sarebbe stato possibile realizzare una
nuova generazione di dispositivi autonomi solo passando attraverso
tecnologie come il calcolo distribuito, ossia basato su più computer
collegati in rete, e facendo significativi progressi nei sistemi di
riconoscimento vocale e visivo e nelle connessioni wireless.

Potremmo essere sulla soglia di una nuova era, nella quale il pc si


libererà dalla scrivania e ci permetterà di vedere, ascoltare, toccare e
manipolare oggetti in luoghi nei quali non siamo fisicamente
presenti.

La sfida, secondo il fondatore della Microsoft, era analoga a quella


affrontata dai computer all’inizio della loro storia e che egli stesso aveva
vissuto direttamente: forte di quell’esperienza, Bill Gates scriveva che
portare i robot in ogni casa sarà possibile soltanto riducendo i costi di
sensori e microprocessori e nello stesso tempo mettendo a punto nuovi
software che permettano alle macchine di percepire l’ambiente in cui si
trovano e di reagire a esso.
I progressi fatti dalla ricerca dal 2007 a oggi indicano che la nuova era
prevista da Bill Gates potrebbe non essere affatto lontana e altrettanto
dicono i dati dell’industria. La Federazione Internazionale di Robotica fa
sapere che nel 2014 nel mondo sono stati venduti 4,7 milioni di robot, tra
personali e domestici, il 28% in più rispetto al 2013: sono i piccoli robot
utilizzati per pulire i pavimenti, tagliare il prato o per l’intrattenimento.
L’idea di avere a disposizione un robot domestico ha acceso spesso la
fantasia, anche quella delle generazioni passate. Pensiamo soltanto alle
cartoline elaborate in Francia nel 1899 e dedicate al 2000. Uno degli artisti
che le realizzò, Jean-Marc Côté, aveva disegnato una complicata macchina
azionata da una manovella che puliva i pavimenti con scopa e spazzolone.
Nel 1955 era stata la tv a immaginare i robot capaci di pulire i pavimenti,
nella serie di telefilm americana Scienza e fantasia. In uno degli episodi una
giovane coppia scopriva che i suoi vicini erano arrivati dal futuro e tra le
meraviglie tecnologiche che avevano portato con loro c’era una ramazza
sonica. Alcuni modelli di robot per pulire i pavimenti sono stati messi a
punto a partire dalla fine degli anni Cinquanta, ma sono sempre rimasti
delle curiosità. Soltanto dall’inizio degli anni 2000 è cominciata la loro
produzione in massa.
Non è un caso che ad arrivare per primi sugli scaffali dei negozi di
elettronica, e nelle case, siano stati i più semplici dei robot domestici. In
commercio dal 2002, questi robot hanno ormai un aspetto familiare: sono
dischi dal diametro di poco più di 30 centimetri e alti una decina di
centimetri che si muovono sui pavimenti aspirando la polvere, altri lavano,
altri ancora puliscono le piscine o le grondaie. Non sono esattamente i robot
che tutti immaginavamo, speravamo o forse temevamo pensando ai primi
robot domestici, ma il primato va indubbiamente a queste macchine. La loro
carta vincente è la semplicità: non hanno braccia né gambe né tantomeno
mani e testa.
A volerle spogliare da qualsiasi elemento complesso è stato il
ricercatore che le ha ideate, l’esperto di intelligenza artificiale Rodney
Brooks. L’arrivo sul mercato dei piccoli robot per pulire i pavimenti, nel
2009, è stato il risultato di una scelta radicale, che lo stesso Brooks aveva
annunciato molto tempo prima, nell’articolo Gli elefanti non giocano a
scacchi, pubblicato nel 1990 sulla rivista Robotics and Autonomous
Systems. Una scelta maturata nel laboratorio di Informatica e Intelligenza
artificiale del MIT, nel quale Brooks ha lavorato a lungo e che ha diretto per
dieci anni, dal 1997 al 2007. Secondo Brooks i robot destinati ad aiutare gli
uomini nelle loro case non avrebbero dovuto funzionare secondo lo schema
“senti-pianifica-agisci”, ma limitarsi a reagire agli stimoli esterni: vale a
dire che non avrebbero dovuto comportarsi in modo complesso,
analizzando nei dettagli ogni possibile azione, ma agire in modo molto più
simile a quanto fanno gli insetti. I robot domestici, quindi, secondo Brooks
non dovrebbero avere un cervello. E fu proprio nel 1990 che Brooks, con
Colin Angle e Helen Greiner, fondò la iRobot, l’azienda che produce i
piccoli robot per pulire e lavare pavimenti, piscine e grondaie, per la ricerca
e la biomedicina, oltre a numerosi robot militari.
È superfluo dire quanto i robot più complessi, come quelli umanoidi,
siano ancora lontani da un mercato di massa. Qualcosa però è cominciato a
cambiare nel 2014, quando le loro vendite hanno registrato una crescita
senza precedenti: sempre secondo i dati della Federazione Internazionale di
Robotica le unità vendute sono aumentate dalle 699 del 2013 a 4416.
L’arrivo di un robot in ogni casa è una prospettiva sicuramente allettante per
l’industria, tanto che a questi nuovi prodotti stanno lavorando aziende
giapponesi, americane, coreane ed europee. Anche un colosso come Google
a partire dal 2013 ha intensificato la ricerca in questo campo, acquisendo
l’azienda Boston Dynamics, e nel 2014 ha preso in affitto tre hangar della
NASA nella ex base aerea della Marina statunitense di Moffett Field, in
California. Nel 2012 Amazon aveva acquisito per 775 milioni di dollari
l’azienda di robotica Kiva Systems, che nel 2015 ha cambiato nome in
Amazon Robotics.
Tra le numerose macchine allo studio una delle più famose è Atlas, il
robot umanoide della Boston Dynamics che sa aprire le porte e camminare
su terreni accidentati trasportando oggetti. Alto un metro e 80 centimetri e
pesante 82 chilogrammi, sarebbe una presenza piuttosto ingombrante in una
casa, ma niente paura: sebbene un video lo abbia mostrato scherzosamente
alle prese con spazzoloni e aspirapolvere, Atlas è stato progettato per
intervenire in situazioni pericolose e prestare soccorso.
Il primo lavoro a essere immaginato per i robot fin dagli anni Novanta è
stato il badante. Probabilmente questa è la prima professione percepita
come utile in una società, come quella occidentale, nella quale gli anziani
tendono a essere la maggioranza. Secondo le previsioni statistiche delle
Nazioni Unite, entro il 2100 la popolazione mondiale è destinata a superare
gli 11 miliardi, ma questa crescita generale non sarà equamente distribuita:
in alcuni Paesi, primi fra tutti il Giappone e l’Italia, le persone in età
lavorativa, che hanno fra 20 e 64 anni, saranno una piccola minoranza
rispetto agli anziani di oltre 65 anni.
Il Giappone ha cominciato a prepararsi da subito, promuovendo la
ricerca su robot pensati per prendersi cura dell’uomo. Uno dei primi
risultato è stato Wakamaru, il robot costruito nel 2005 dalla Mitsubishi
Heavy Industries e progettato da Toshiyuki Kita. Dall’aspetto gradevole,
con il giallo acceso della sua carrozzeria, era alto 90 centimetri, si spostava
su ruote ed era programmato per comprendere il linguaggio naturale. Il
primo modello, del 2000, era stato presentato da un gruppo di giovani
ricercatori come il progetto di un robot di servizio e il 2 febbraio 2003
l’arrivo del robot venne annunciato ufficialmente. Nonostante fosse nato per
essere un badante, Wakamaru ha avuto il suo primo impiego nel 2007 come
addetto alla reception, al servizio delle aziende che lo affittavano per
accogliere i clienti. Un compito che il robot riusciva ad affrontare grazie
alla sua capacità di riconoscere 10.000 parole giapponesi e almeno otto visi
umani, distinguendone le caratteristiche. Un’abilità, questa, che aveva
suggerito la possibilità di utilizzarlo anche per scattare foto a eventuali
intrusi. Una connessione wireless a Internet, inoltre, gli permetteva di dare
informazioni sulle previsioni meteo o sulle ultime notizie pubblicate online.
Le vendite di questo robot, però, furono deludenti, forse a causa del prezzo
piuttosto elevato.

Figura 3.2 – Wakamaru (fonte: Nesnad).


Sempre in Giappone, dal 2008 nell’università di Tokyo è attivo il
gruppo di Yoshihiko Nakamura: nel laboratorio che porta il suo nome, il
Nakamura Lab, la quasi totalità della ricerca si concentra sui robot
umanoidi, considerandoli il punto di convergenza di differenti campi di
ricerca, come lo studio di ossa e muscoli, del linguaggio e della percezione,
fino alla genetica e all’evoluzione. Il ricercatore ritiene che:

La ricerca sugli umanoidi è indistinguibile dalla ricerca sull’uomo.


La sfida è costruire robot che capiscono linguaggio, gesti ed
espressioni dell’uomo.

Nell’opinione di Nakamura, soltanto così si potranno

avere robot capaci di dare assistenza.

Con gli anni la ricerca su queste macchine sociali è andata avanti in


tutto il mondo, al punto che i primi robot badanti sono entrati nelle case,
anche se solo a livello sperimentale. Nel 2014 in Europa i primi sei anziani
(due in Svezia, due in Spagna e due in Italia) hanno provato la vita in
compagnia di una macchina, aprendo la porta di casa al robot nato dal
progetto GiraffPlus, promosso e finanziato dalla Commissione Europea.
In Italia lo ha sperimentato la signora Lea, 94 anni, di Roma e ha voluto
chiamarlo Mister Robin:

Averlo dentro casa mi fa stare più tranquilla, mi sento protetta


perché so che, se succede qualcosa, lui arriva subito e cerca aiuto. In
realtà – aveva detto la signora – finora non è mai dovuto venire in
mio soccorso, ma sono io che lo sto aiutando, lo sto collaudando e
do una mano ai progettisti nel metterlo a punto.

GiraffPlus, alias Mister Robin, è una sorta di carrello azzurro che si


sposta su ruote e con un lungo collo, come quello di una giraffa, sormontato
da uno schermo che permette a chi lo usa di mettersi in contatto con altre
persone, per esempio col medico. Un corredo di sensori, inoltre, gli
permette di capire se il suo anziano sta cucinando, dormendo o guardando
la tv; può anche controllarne la salute, per esempio rilevando il valore della
pressione sanguigna o della glicemia.
È entrato nelle case degli anziani anche KuBo, un carrello milleusi
intelligente sormontato da un piccolo braccio meccanico, che si sposta su
ruote e viene controllato da un tablet. Ha sensori ambientali per controllare
la casa, per esempio verificando che i rubinetti dell’acqua siano chiusi
quando non servono, così come la manopola del gas; verifica che siano
chiuse anche porte e finestre, può trasportare oggetti, ricordare al suo
anziano quando è ora di prendere le medicine e lo informa sulle previsioni
meteo. È stato realizzato nell’ambito del progetto OmniaRoboCare,
cofinanziato da Unione Europea e Regione Toscana, con il coordinamento
della Scuola Superiore Sant’Anna di Pisa.
Anche Doro, Coro e Oro sono stati realizzati nell’ambito di un progetto
europeo, Robot-Era, e sono nati dalla collaborazione fra centri di ricerca di
Svezia, Germania, Gran Bretagna e Italia. Sono carrelli sormontati da una
struttura allungata, culminante in una testa sorridente e con grandi occhi
rotondi. Per controllarli è sufficiente un tablet e possono muoversi in casa,
ma sono anche in grado di accompagnare gli anziani all’esterno, per fare la
spesa o una semplice passeggiata.
Altre macchine collaudate con gli anziani sono i telerobot, progettati per
l’assistenza a distanza. Hanno l’aspetto di carrelli sormontati da un lungo
supporto. La loro testa è di solito un tablet oppure una faccia molto
stilizzata, come nel caso di Edgar, il robot per la telepresenza nato nella
Nanyang Technological University (NTU) di Singapore. Edgar ha una testa
ovale e allungata con gli occhi tondi e un puntino al posto della bocca, due
braccia, un torso e si muove su ruote. Una speciale webcam gli permette di
riprodurre in tempo reale il volto e i gesti di una persona che si trova a
chilometri di distanza, così come di riprendere le persone che si muovono
nelle vicinanze per coinvolgerle in una conversazione.
Inoltre, secondo Gerald Seet, esperto di Ingegneria meccanica della
NTU:

La telepresenza dà una nuova dimensione alla mobilità. Gli


utilizzatori possono proiettare la loro presenza fisica in uno o più
luoghi contemporaneamente e questo significa che la geografia non
sarà più un ostacolo.
Sempre a livello sperimentale, altri robot sono entrati negli ospedali,
come Paro, dall’aspetto di un cucciolo di foca. Realizzato nel 2001 da
Takanori Shibata, dell’Istituto giapponese per la ricerca e la tecnologia
industriali (AIST), è stato il primo robot da compagnia utilizzato per
l’assistenza agli anziani colpiti da forme di demenza. Si è aggirato fra corsie
e letti anche Robear, l’orso robot nato dalla collaborazione fra l’Istituto
giapponese Riken, con il Centro di ricerca sull’interazione uomo-robot di
Nagoya, e l’azienda Sumitomo Riko. Bianco e azzurro, il robot pesa oltre
un quintale e la sua mole imponente è sdrammatizzata dalla testa simpatica
e divertente, simile a quella di un orsacchiotto. È anche molto forte e nello
stesso tempo delicato, tanto che essere presi in braccio e sollevati da lui non
preoccupa.
Se i robot badanti faranno la parte del leone, altre macchine sono state
programmate per lavorare tra i fornelli, come Justin. Nel 2008 questo robot
è stato il primo a saper preparare il caffè. È stato sviluppato nell’ambito del
progetto europeo Dexmart, il cui obiettivo è realizzare robot capaci di fare
movimenti precisi con due mani. Nella Fiera di Hannover del 2015 un robot
chef si è esibito nella prima cucina automatizzata preparando una zuppa di
granchio secondo la ricetta dello chef americano Tim Anderson, vincitore
dell’edizione britannica del programma televisivo MasterChef. Il robot,
programmabile con un’app, ha dimostrato di saper tagliare, versare,
mescolare e spadellare con l’abilità di un vero cuoco, preparando ben 2000
ricette. Lo ha costruito la britannica Moley Robotics, il cui obiettivo è
realizzare un modello di cucina automatizzata ancora più avanzato, nel
quale il robot-chef sarà in grado di usare anche frigorifero e lavastoviglie.
Le due braccia, costruite dalla Shadow Robot Company, hanno 20 motori,
24 giunzioni e 129 sensori grazie ai quali riescono a imitare i movimenti
umani.

Umanoide
Il termine “umanoide” significa “simile all’uomo” e deriva dal
latino “humanus” associato al suffisso greco “-oide”, che
significa “come”. È una parola che si limita a indicare pochi
tratti relativi alla forma esterna, come la presenza di due
gambe, due braccia e una testa. È stato utilizzato a fine
Ottocento dagli etnologi per indicare gli individui delle
popolazioni indigene e in seguito dai paleontologi che
studiavano gli antenati dell’uomo. Più recentemente la
fantascienza ha utilizzato questo termine riferendosi a
extraterrestri dall’aspetto simile a quello umano. La robotica lo
utilizza per descrivere le macchine che, come l’uomo,
camminano su due gambe e hanno due braccia e una testa. Non
è necessario che queste caratteristiche siano simili a quelle
umane nei dettagli. Per esempio non è necessario che la statura
sia confrontabile con quella di un essere umano, né che la
faccia abbia occhi, naso e bocca, né infine che le mani abbiano
cinque dita.
Capitolo 4

NON SOLO NELLE CASE… LADRI DI


LAVORO?

Probabilmente è l’impiegato di banca più fotografato del mondo: Nao, il


piccolo robot umanoide nato per giocare a calcio, lavora a Tokyo per il
gruppo finanziario Mitsubishi UFJ. Bianco e azzurro, alto poco più di
mezzo metro, la faccia simpatica e l’aspetto che ricorda quello dei robot dei
vecchi cartoni giapponesi, Nao è stato programmato per accogliere i clienti,
salutandoli preferibilmente nella loro lingua (è configurato per parlarne ben
diciannove) e chiedere loro di quale servizio hanno bisogno. Sa bene come
rivolgersi a ognuno perché non soltanto capisce le parole, ma sa cogliere le
emozioni di chi gli sta davanti, ascoltando il tono della voce e vedendo le
espressioni sui visi.
Presentando il nuovo impiegato hi-tech, il responsabile del gruppo per
le Tecnologie dell’informazione, Takuma Nomoto, ha osservato che i robot
possono integrare i servizi offerti dalla banca eseguendo compiti che gli
addetti umani non sono in grado di fare, come essere attivi 24 ore su 24 e
parlare più lingue. In particolare Nao, grazioso e gentile com’è, piace
moltissimo ai clienti.
Questo piccolo robot piace così tanto che è stato assunto da un albergo
che fa della tecnologia il suo fiore all’occhiello, come l’Henn-na Hotel della
città di Sasebo, nel Sud-Ovest del Giappone, aperto nel 2015 all’interno di
un parco divertimenti nella prefettura di Nagasaki. In questo futuristico
hotel, il cui nome in italiano significa “albergo evoluto”, non esistono le
chiavi delle camere perché le porte si aprono solo se riconoscono la faccia
del loro ospite, fotografata e registrata durante il check-in, e i dieci
impiegati umani hanno come colleghi una schiera di macchine. Oltre a Nao,
nella reception lavorano altri due robot, molto diversi dal piccolo umanoide
e anche fra loro: nella postazione centrale della reception c’è un androide
dall’aspetto femminile, capelli neri, sorridente, elegante nella divisa bianca
dell’hotel, completata da un foulard a righe bianche e nere annodato attorno
al collo; sul lato sinistro c’è Nao, che della divisa non ha bisogno; sul lato
destro c’è un dinosauro che parla inglese, di piccola taglia ma dai denti
decisamente aguzzi. Potrebbe essere un velociraptor, ma l’aria aggressiva è
addolcita dal cappellino bianco e dal papillon dello stesso colore. Un
braccio robotico simile a quelli che da tempo lavorano nelle fabbriche si
occupa dei bagagli, che vengono portati nelle camere da un carrello
automatico.
È possibile che nel futuro di Nao possa esserci anche un impiego in
vista delle Olimpiadi di Tokyo del 2020, come è certo che per i robot ci sarà
sempre più spazio nel mondo del lavoro. Per quanto singolare, l’Henn-na
Hotel ha preferito assumere più robot che umani per un normalissimo
discorso di minor costo del lavoro e il gruppo Mitsubishi UFJ è fra i tanti
che in Giappone hanno cominciato a investire in quelle che qualcuno ha
definito “risorse non umane”. Insieme a molte altre aziende ha infatti
risposto all’appello lanciato nel maggio 2015 dal primo ministro giapponese
Shinzo Abe in favore di una “rivoluzione robotica”, capace di contrastare i
problemi di una società in cui la popolazione in età lavorativa è sempre
meno numerosa e dove gli anziani sono ormai la maggioranza.
Figura 4.1 – Il robot Nao (fonte: Jiuguang Wang).

Un appello al quale ha risposto anche la controllata giapponese della


Nestlè, che ha deciso di affidare a un robot la presentazione ai clienti delle
sue macchine per il caffè e di altri prodotti in almeno mille negozi. La scelta
dell’azienda è caduta su Pepper, che come abbiamo visto è stato il primo
robot umanoide a essere adottato da una famiglia. Alto poco più di un
metro, bianco e con i suoi due grandi occhi rotondi, è pronto anche lui a
tuffarsi nel mondo del lavoro. In precedenza Pepper ha lavorato anche in
una banca, accogliendo i clienti, fornendo loro informazioni e divertendoli.
Anche altre macchine erano state assunte in precedenza per compiti
analoghi. Già nel luglio 2007 Wakamaru, un piccolo robot giapponese di un
bel giallo vivo, aveva dimostrato di essere un’ottima guida grazie al suo
ricco vocabolario e alla capacità di riconoscere visi e voci umani. È andata
meno bene ad Asimo, che forse si era cimentato in compiti troppo
complessi: il robot umanoide più celebre del mondo è stato purtroppo
licenziato dal Museo delle scienze Miraikan di Tokyo, dove aveva iniziato a
fare pratica come guida. Il problema risiedeva nel fatto che Asimo era in
grado di riconoscere i movimenti degli umani, ma non di comprenderne il
significato. Così il robot si è trovato in situazioni imbarazzanti, senza sapere
come comportarsi né cosa dire, perché non era in grado di capire se il
visitatore che alzava la mano volesse fare una domanda o scattare una foto.
Prima o poi Asimo supererà questi ostacoli, e come lui molti altri robot: è
solo questione di tempo prima che le macchine siano pronte per lavorare
ovunque.
Oltre che nelle reception degli alberghi, i primi robot di servizio prodotti
in serie potrebbero cominciare a lavorare nei centri commerciali per dare
informazioni ai clienti o per fare i commessi nei negozi, potrebbero prestare
servizio negli aeroporti o fare i camerieri nei ristoranti, o ancora assistere i
malati negli ospedali, controllando loro la febbre, portando loro le medicine
o aiutandoli ad alzarsi dal letto. Le prime occupazioni potrebbero essere,
però, appena fuori dalla porta di casa:

I robot potrebbero sostituire i portieri di una volta, con una


postazione nella guardiola, dalla quale sorvegliano chi entra e
prendono in consegna la posta, i pacchi oppure la spesa per
consegnarli ai condomini, salendo fino al piano giusto e affidando
lettere, pacchi e pacchetti al robot domestico che viene ad aprire,

immagina il direttore dell’Istituto di Biorobotica della Scuola Superiore


Sant’Anna, Paolo Dario. Uscendo, si può immaginare di incontrare nelle
strade del quartiere anche robot che accompagnano le persone anziane e
altri che vanno in farmacia o a fare la spesa, e vederne altri ancora uscire
dai condomini per andare a buttare la spazzatura.
Ci sono ormai pochissimi dubbi sul fatto che robotica e intelligenza
artificiale stiano decisamente marciando sulla strada che le porterà a
diventare parte integrante di moltissimi aspetti della nostra vita quotidiana.
Dalla casa alla salute, dai trasporti ai servizi, si apre uno scenario
completamente nuovo, nel quale per la prima volta l’uomo condivide con le
macchine i suoi spazi, da quello privato della casa al luogo di lavoro. Da
quando sono entrati nelle fabbriche, i robot hanno sempre lavorato in spazi
riservati, diversi da quelli occupati dall’uomo, eseguendo compiti sempre
uguali con movimenti ripetitivi. Adesso le cose stanno andando
diversamente perché, in casa come nel lavoro, uomini e macchine
interagiscono, si parlano, collaborano. Gli spazi si sovrappongono e c’è chi
teme che i robot possano portare via il lavoro all’uomo, creando schiere di
disoccupati.
Figura 4.2 – Albert Einstein Hubo (fonte: Dayofid at English Wikipedia).

Non è un timore nuovo. Più volte nella storia l’arrivo delle macchine ha
scatenato la paura della disoccupazione, un timore che venne teorizzato nel
1930 da John Maynard Keynes nel saggio Possibilità economiche per i
nostri nipoti, nel quale l’economista britannico proponeva una “rapida
incursione in un futuro ragionevolmente lontano”, che collocava di lì a un
secolo, ossia intorno al 2030; nel futuro vedeva una malattia all’epoca
sconosciuta ma che in tempi successivi avrebbe fatto parlare molto di sé: la
“disoccupazione tecnologica”. A causarla, diceva Keynes, è il fatto che

scopriamo sempre nuovi sistemi per risparmiare forza lavoro, e li


scopriamo troppo in fretta per riuscire a ricollocare quella forza
lavoro altrove.
La preoccupazione per questa nuova malattia ha cominciato ad
aumentare dall’inizio degli anni 2000, quando più studi hanno cominciato a
prevedere un progressivo aumento della disoccupazione dovuto all’ingresso
delle macchine e la questione è esplosa nel vertice economico di Davos del
2014, quando l’80% degli esperti riteneva che la tecnologia avrebbe
favorito la disoccupazione. Una posizione confermata nel 2016 e
accompagnata dalla previsione che, entro il 2020, nei quindici Paesi nei
quali si concentra il 65% della forza lavoro mondiale le macchine
porteranno via agli uomini oltre 5 milioni di posti di lavoro nei quindici
Paesi nei quali si concentra il 65% della forza lavoro mondiale.
La stima, secondo la quale a fronte di 7,1 milioni di posti di lavoro
perduti saranno soltanto 2 milioni quelli guadagnati, era contenuta nel
rapporto intitolato The Future of Jobs, a cura dello stesso World Economic
Forum. Per due terzi la disoccupazione riguarderebbe il settore
amministrativo, ma si farà sentire anche nel campo della sanità, con la
crescente diffusione della telemedicina, in quello dell’energia e dei servizi
finanziari. Contemporaneamente, sempre secondo questo rapporto,
aumenterà la domanda per i lavori qualificati, come quello di analista di dati
e di addetto alle vendite.
Le preoccupazioni espresse nel rapporto del World Economic Forum
non riguardano tanto i robot come Nao o Pepper, che tutto sommato sono
ancora delle curiosità: la loro presenza in banche, aziende, negozi e alberghi
tutto sommato è ancora una stranezza. Potrebbero riguardare invece
macchine come Tug.
A prima vista non si direbbe che Tug sia un robot perché ha l’aspetto di
un carrello multiuso, ma è un carrello molto intelligente, che conosce
settanta frasi per comunicare con medici, infermieri e pazienti, si muove
autonomamente in sicurezza all’interno degli ospedali grazie a ventisette
sensori che gli permettono di riconoscere persone e ostacoli, si orienta
consultando la mappa che ha memorizzato e comunica con ascensori e porte
grazie a una connessione wireless. Costruito dall’azienda americana
Aethon, nata nel 2004 a Pittsburgh, Tug è utilizzato in almeno 140 ospedali
negli Stati Uniti e riesce a svolgere un’incredibile quantità di lavoro. Si
calcola che in un ospedale di oltre 200 letti questo robot percorra almeno
597 chilometri alla settimana (con una media di 85,2 chilometri al giorno)
consegnando 4547 pasti e 9901 prescrizioni di farmaci, trasportando 31,6
chilogrammi di rifiuti speciali, 37 di biancheria e 70.000 campioni
biologici. Una quantità di lavoro davvero notevole, ma che comunque
continua a richiedere la presenza dell’uomo, se non altro per il
coordinamento delle numerose attività che il robot riesce a svolgere.
Tug è un esempio di robot “invisibile”, definizione coniata negli anni
Novanta Danny Hillis, il fondatore della Thinking Machines Corporation.
Questa stessa azienda negli anni Ottanta ha prodotto il supercomputer
Connection Machine, che lo stesso Hillis aveva progettato al MIT. Secondo
Hillis quando la gente parla di tecnologia si riferisce di solito a tutto ciò che
ancora non è arrivato tra noi; una volta che le tecnologie cominciano a
diffondersi diventano molto più semplicemente computer, televisioni,
telefoni, e soltanto allora vengono accettate. Come Tug, altri robot diventati
invisibili sono al lavoro da tempo, come quelli della iRobot per pulire i
pavimenti.
La stessa azienda americana ha messo in commercio anche Ava: un
robot per la telepresenza dall’aspetto di un carrellino sormontato da un
display, che ha numerose applicazioni calibrate sulle esigenze delle aziende
che lo adottano, dalla videosorveglianza all’organizzazione di
teleconferenze. Invisibili come Ava, altri robot per la telepresenza sono in
commercio da tempo, come Beam della Suitable Technologies, anche
questo simile a un piccolo carrello, oppure Co-Bot, messo a punto dalla
Carnegie Mellon University di Pittsburgh. Il nome di quest’ultimo riprende
in pieno il nuovo termine coniato per macchine come queste: vengono
chiamate “cobot”, ossia “robot collaborativi”, progettati per aiutare l’uomo
sul lavoro interagendo con lui anziché sostituendolo. Brevettando il suo
CoBot nel 2011, la Carnegie Mellon University osservava che il robot
funzionava sulla base di una nuova “autonomia simbiotica”, vale a dire che
la macchina era in grado di muoversi in modo autonomo all’interno di un
edificio, ma riconosceva i suoi limiti percettivi, fisici e cognitivi, chiedendo
aiuto all’uomo, per esempio per manipolare oggetti
Chissà se, come questi, anche i robot che in futuro lavoreranno con
l’uomo saranno altrettanto invisibili? Forse un domani potremo abituarci
anche alla presenza dei robot umanoidi, al punto che entrare in un negozio e
rivolgersi a una macchina come Nao potrebbe fare lo stesso effetto che oggi
fa comprare una bibita da un distributore automatico. E, proprio come la
macchina che distribuisce bibite, caffè e merendine nel sottopassaggio di
una metropolitana nulla toglie ai bar che si affacciano sulla strada, non si
può escludere che anche i robot come Nao possano lavorare in
collaborazione con l’uomo, che nel frattempo avrà inventato altri lavori.
È un futuro, quello che vivremo accanto ai robot, che oggi viene
percepito in modi molto diversi. Lo dimostra il sondaggio condotto nel
2014 negli Stati Uniti dal Centro ricerche Pew, che ha raccolto le opinioni
di oltre 1800 esperti tra economisti, informatici, politici e giuristi. Il 48%
delle risposte ha espresso una forte preoccupazione, vedendo nella sempre
maggiore diffusione delle macchine la causa di un progressivo aumento di
disoccupazione, disparità e conflitti sociali. Decisamente pessimista, fra gli
intervistati, il sociologo Howard Rheingold, specializzato nell’analisi
dell’impatto sociale di Internet:

I lavori che i robot lasceranno fare agli umani saranno quelli che
richiedono idee e conoscenza. In altre parole soltanto gli esseri
umani che avranno ricevuto un’educazione migliore potranno
competere con le macchine. E il sistema educativo negli Stati Uniti
e nella maggior parte del resto del mondo tiene gli studenti seduti in
fila, insegnando loro a stare tranquilli e a memorizzare ciò che viene
detto.

Ha puntato l’indice contro l’inadeguatezza di scuole e università anche


il futurologo Bryan Alexander, osservando che

il sistema educativo non è ben posizionato per trasformarsi in modo


da formare laureati in grado di competere con le macchine. Non lo
farà in tempo né in misura adeguata. Gli autodidatti faranno bene
come hanno sempre fatto, ma grandi masse di persone saranno state
preparate per un’economia sbagliata.

Il 52% delle risposte è stata invece meno pessimista, considerando


improbabile che entro il 2025 la tecnologia possa portare via più posti di
lavoro di quanti ne potrà creare. È vero che molti lavori che oggi vengono
fatti dagli uomini potranno essere svolti dai robot, ma gli intervistati si sono
detti anche sicuri che l’uomo saprà ingegnarsi nell’escogitare nuovi modi
per vivere, nuovi lavori e nuove attività, proprio come è accaduto all’alba
della prima rivoluzione industriale.
La pensano così due pionieri della rivoluzione di Internet come Mike
Roberts e Fred Baker, che hanno visto nascere in prima persona l’arrivo di
una tecnologia che in un tempo brevissimo ha trasformato la società.
Roberts, che ha gettato le basi per la gestione di indirizzi IP e domini,
osservava che

gli avatar elettronici dell’uomo con considerevoli capacità di lavoro


non sono distanti decenni, ma anni. La situazione è esacerbata dal
completo fallimento della comunità economica nell’affrontare con
un certo grado di sostenibilità temi che stanno distruggendo il
moderno modello consumistico e minando la nozione del XX secolo
di “un’onesta paga per un giorno di onesto lavoro”. La strada per
adeguarsi all’arrivo di nuove realtà è sempre dolorosa.

Baker, che alla fine degli anni Ottanta ha fatto parte della task force che
ha sviluppato gli standard di Internet, si diceva convinto che

i progressi nell’automazione cambieranno il lavoro, ma non lo


ridurranno. Un’automobile che si guida da sola su una strada con la
segnaletica si trova in difficoltà su strade che ne sono prive, per fare
un esempio, e qualsiasi sistema automatico è in grado di gestire gli
eventi per i quali è stato progettato, ma non gli eventi per i quali non
lo è. Mi aspetto grandi cambiamenti, ma non penso che la razza
umana andrà in pensione in massa per il 2025.

Al di là delle opinioni, comunque, il dato accettato da tutti è che nei


prossimi decenni il concetto di lavoro è destinato a cambiare in modo
significativo, così come è diffusa la convinzione che l’uomo sarà in grado
di controllare il futuro nel quale si troverà a vivere, determinando se
l’impatto delle nuove tecnologie sulla società sarà positivo o negativo.

Quanto ti dispiace che la lavastoviglie ti abbia sostituito nel lavare i


piatti, o che l’aspirapolvere ti rimpiazzi nel pulire i pavimenti?
È la domanda del capo degli economisti di Google, Hal Varian. Si è
detto pronto a dare il benvenuto alle nuove tecnologie “se rimpiazzare più
lavori significa eliminare attività monotone, ripetitive e sgradevoli” e ha
aggiunto:

La settimana lavorativa è scesa da 70 ore a settimana a 37 e mi


aspetto che continui a ridursi. Questa è una buona cosa. Ognuno
potrà avere più occupazioni e meno lavoro. Robot di diversi tipi
ridurranno il lavoro, ma la convenzionale settimana lavorativa
diventerà più breve e di conseguenza ci sarà lo stesso numero di
occupazioni. Questo è accaduto negli ultimi 300 anni e non vedo
ragione perché le cose debbano cambiare in un decennio.

Non lascia pensare a una deriva incontrollabile nemmeno quanto è


accaduto nelle fabbriche dopo che, negli anni Ottanta, sono arrivati i robot.
Uno degli esempi più avanzati di queste realtà è la fabbrica della Tesla
Motor, dove lavorano a pieno ritmo 160 robot fra i più avanzati del mondo e
dove dal 2010 al 2013 le persone impiegate sono aumentate da 1000 a
3000.
Certamente il rischio che i robot (ma ancora di più l’informatica)
sottraggano posti di lavoro agli uomini c’è.
Però si può anche pensare in positivo, immaginare e agire. L’industria
dell’automobile, per esempio, è uno degli scenari più verosimili di quella
che a breve potrebbe diventare la produzione su larga scala di robot
specializzati per interagire con l’uomo.
Paolo Dario, della Scuola Superiore Sant’Anna, vede

un futuro in cui i robot potranno trainare l’industria, creando nuovi


posti di lavoro. Possiamo immaginare fabbriche in cui vengono
prodotti i robot e, come è accaduto con la produzione in massa delle
automobili, potrebbero comparire nuove professioni, come
meccanici capaci di ripararli, e poiché i robot in definitiva non sono
che degli smartphone su due ruote, è possibile prevedere che ci sarà
mercato per sviluppatori di app. Potrebbero anche nascere altre
fabbriche specializzate nel riciclare i materiali di cui sono fatti i
robot.
In generale, osserva ancora l’esperto,

bisognerà fare un bilancio tra i lavori che scompaiono e altri che


nascono, magari più appaganti. I robot potranno forse mettere a
rischio i lavori più ripetitivi e manuali, nei quali il contributo umano
non è così determinante o potranno anche fare lavori che nessuno
vuole più fare.

Lo stesso Keynes, parlando della disoccupazione tecnologica, la


definiva “uno scompenso temporaneo” e nel saggio del 1930 sulle
Possibilità economiche per i nostri nipoti affermava che:

Nel lungo periodo, l’umanità è destinata a risolvere tutti i problemi


di carattere economico. Mi spingo a prevedere che di qui a cento
anni il tenore di vita nei Paesi avanzati sarà fra le quattro e le otto
volte superiore a quello attuale. Alla luce delle nostre conoscenze
attuali, è il meno che si possa dire. E immaginare una crescita anche
più significativa non sarebbe un azzardo.

La quarta rivoluzione industriale


Nella prima rivoluzione industriale, avvenuta nella seconda
metà del Settecento, il lavoro manuale venne sostituito
dall’arrivo delle prime macchine, come i telai.
A partire da metà Ottocento la produzione industriale vide una
notevole crescita grazie allo sviluppo dei trasporti, favorendo la
produzione su larga scala e inaugurando in questo modo la
seconda rivoluzione industriale.
Nella seconda metà del Novecento il forte sviluppo tecnologico
e nelle comunicazioni, soprattutto grazie all’arrivo
dell’elettronica, ha dato origine alla terza rivoluzione
industriale.
La quarta rivoluzione industriale è quella attesa nei primi
decenni degli anni 2000 con l’arrivo dell’automazione su larga
scala. Questa nuova rivoluzione è vista come l’insieme dei
cambiamenti che derivano dalla diffusione di Internet, come
l’Internet delle cose e l’Internet dei servizi, parallelamente allo
sviluppo dei sistemi ciber-fisici, ossia i sistemi informatici che
interagiscono con l’ambiente in cui operano, come robot,
fabbriche intelligenti e domotica.
Capitolo 5

ANIMALI E PIANTE, I ROBOT


DIVENTANO SOFFICI

È pronto a intervenire con il martello che stringe nella mano destra, ma il


terreno sabbioso non fa per lui, l’andatura si fa incerta, le sue gambe verdi
oscillano sempre di più e quando prova a fare un passo di lato si ritrova a
terra; un suo collega prova intanto ad aprire una porta, elegante nel suo
metallo rosso fuoco, ma perde l’equilibrio e cade in avanti; la squadra è
numerosa e il terzo cerca di superare un terreno a dir poco accidentato, ma
basta un passo falso perché cada rovinosamente nella sua armatura bianca e
azzurra. Porte e terreni sabbiosi sono pieni di insidie: c’è chi cade perfino
da fermo e chi si piega in due al solo sfiorare una maniglia, per non parlare
di rubinetti da girare e gradini su cui salire, perfino scendere dalla macchina
può far tremare le gambe.
Non si tratta di uno squinternato esercito di alieni, ma di robot che sono
al top della tecnologia mondiale, tanto da cimentarsi nella gara
internazionale più importante del mondo, la Darpa Robotics Challenge
(DRC), organizzata dal Dipartimento per la Difesa degli Stati Uniti dal
2012 al 2015 con l’obiettivo di definire gli standard tecnologici dei robot da
impiegare per prestare i soccorsi in situazioni di disastro naturale o di
incidenti causati dall’uomo, per esempio un guasto in una centrale nucleare.
Vale a dire che i robot in gara, compresi quelli finiti a gambe all’aria, sono
tra i migliori del mondo. Perché, allora, cadono davanti a un ostacolo che
l’uomo e animali più semplici supererebbero a occhi chiusi?
Perché adesso la nuova sfida è portare i robot nel mondo reale, ossia in
un mondo che cambia in continuazione e al quale bisogna continuamente
adattarsi, e in questa situazione complessa la tecnologia di riferimento non
può più essere quella tradizionale che finora ha tenuto i robot ben saldi al
banco di lavoro nelle fabbriche, facendone macchine robustissime ed
efficienti. Anche i robot di servizio, come abbiamo visto, hanno fatto grandi
progressi, ma c’è ancora moltissimo da fare nella capacità di affrontare un
ambiente in continuo cambiamento e il rapporto con l’uomo. I capitomboli
dei robot superstar protagonisti della Darpa Challenge dimostrano quanto
sia difficile controllare macchine progettate con molti gradi di libertà:
teoricamente potrebbero fare i movimenti più complessi, ma nella realtà
sono difficili da controllare e programmare e, come abbiamo visto, questa
loro enorme complessità finisce per renderle fragili. È ora di trovare
qualcosa di nuovo, e qualcuno ha già cominciato a farlo con la cosiddetta
“robotica soft”.
È il nuovo volto della robotica che si sta affermando dai primi anni
2000 e che si ispira alla natura, osservando come lo stesso uomo, ma anche
animali e perfino le piante organizzano i loro movimenti adattandosi in
modo flessibile alle caratteristiche dell’ambiente che li circonda. Ben
lontana dalla concezione rigida che ha ispirato i robot tradizionali, la
robotica soft è leggera ed elastica e la sua parola d’ordine è semplificazione.
Come in natura esistono vertebrati e invertebrati, anche i robot soft hanno
preso due strade diverse. I primi ad arrivare sono stati i robot vertebrati e la
loro strada si è intrecciata strettamente con la costruzione di protesi di mani,
braccia e gambe dai movimenti resi naturali da articolazioni di nuova
generazione, che imitano quelle naturali. “La natura ha trovato la soluzione
nei vertebrati”, spiega uno dei ricercatori in prima linea a livello
internazionale in questo tipo di robotica, Antonio Bicchi, coordinatore del
gruppo di ricerca in Robotica al Centro E. Piaggio dell’università di Pisa e
senior scientist dell’Istituto Italiano di Tecnologia di Genova.

Le macchine – prosegue – devono avere la capacità di adattarsi


all’ambiente, ma anche una certa capacità di esercitare forze
consistenti, come sostenere il corpo di una persona. Il problema è
riuscire a renderle delicate e forti nello stesso tempo. Il nostro sforzo
consiste nel coniugare la semplicità con la funzionalità, prendendo
come modello di riferimento le neuroscienze. Il corpo umano, per
esempio, è organizzato in modi codificati, come un artista che ha
imparato a suonare uno strumento: questo permette di capire gli
aspetti più efficienti del corpo umano che ci interessa riprodurre, di
replicarli riducendo motori e attuatori e di riorganizzarli nel modo
più efficiente possibile.

In secondo luogo, continua Bicchi, le strutture che si ottengono in


questo modo

devono poter lavorare nell’ambiente e per questo devono essere


sicure, gradevoli, adattabili e cedevoli.

La cedevolezza, soprattutto, è la proprietà che permette al nostro corpo


di adattarsi all’ambiente. Pensiamo alla mano: è cedevole nel senso che

si adatta in modo intelligente alle forme che incontra nell’ambiente.


Per esempio, è difficile raccogliere una moneta da un tavolo senza
toccare il tavolo, mentre è molto più facile farlo se le dita si
deformano adattandosi al tavolo per afferrare la moneta. Il
meccanismo è simile a quello di un differenziale, che non costringe
le ruote ad avere la stessa velocità e in curva permette alla ruota
interna di ridurre il numero di giri per trasferirli a quella esterna:
anziché su due ruote, abbiamo portato un meccanismo analogo su
tutte le falangi. È un esempio di come la cedevolezza permetta di
reagire con l’ambiente, distribuendo le forze e rendendo possibili
azioni che prima non lo erano.

Finora attuatori e sistemi utilizzati nei robot controllavano o la


posizione di un sistema meccanico oppure la forza, adesso invece
l’obiettivo è controllare il rapporto tra posizione e forza o, in altre parole,
controllare il modo in cui un meccanismo reagisce alle forze esterne.
Da questa nuova filosofia sono nate sia protesi di nuova generazione,
con mani bioniche flessibili e a basso costo (che incontreremo tra poco
parlando dei robot indossabili), sia robot umanoidi i cui movimenti sono
resi più naturali da articolazioni flessibili. È il caso del progetto europeo
Viactors (Variable Impedance ACTuation systems embodying advanced
interaction behaviOuRS), cui l’Italia ha partecipato con il Centro E. Piaggio
e l’Istituto Italiano di Tecnologia (IIT), sotto la guida del laboratorio di
robotica dell’Agenzia spaziale tedesca (DLR). L’obiettivo è partire dallo
studio di strutture e meccanismi neuromuscolari degli esseri umani per
arrivare a riprodurli artificialmente e quindi a incorporarli nella struttura
fisica dei robot. Il controllo di queste funzioni non passa per il sistema
nervoso centrale, ma il cervello è il punto di partenza di un processo che
viene gestito con pacchetti di istruzioni codificati a livello del sistema
nervoso periferico. In pratica nell’uomo il sistema nervoso periferico
apprende gradualmente, a partire dall’infanzia, a eseguire comportamenti
che nel tempo diventano quasi automatici.
Imitare questa organizzazione nei robot significa che non ci sarà più un
programma esterno che, caricato sul robot come un software, darà istruzioni
alla macchina, ma la capacità di svolgere una funzione sarà incorporata
direttamente nella macchina. I futuri costruttori di robot avranno così a
disposizione un insieme di meccanismi da utilizzare per costruire robot in
grado di interagire con gli esseri umani in modo sicuro ed efficiente. Per
esempio, potranno camminare e muoversi evitando facilmente gli ostacoli,
oppure si potranno costruire bracci specializzati nella fisioterapia, così
sensibili da adattare forza e pressione per curare disturbi diversi.
Figura 5.1 – Soft-Hand utilizzata come protesi. Pur essendo così delicata da raccogliere una fragola,
è capace di esercitare forze pari o superiori alla mano umana (fonte: Antonio Bicchi, Centro E.
Piaggio, università di Pisa).

Uno dei primi robot dalle articolazioni elastiche è stato messo a punto
dall’IIT, si chiama Coman (Compliant Humanoid) e ha gambe molleggiate
che, grazie a una serie di sensori e alle articolazioni morbide, riescono a
tenerlo in equilibrio con un’elasticità confrontabile con quella di un essere
umano. Dalla collaborazione fra IIT e Centro Piaggio è arrivato anche
Walk-Man, il robot alto 1,85 metri e pesante 100 chili realizzato nell’ambito
del progetto europeo Whole-body Adaptive Locomotion and Manipulation.
Ha mani soffici ispirate a quelle umane; quando cammina, nel laboratorio in
cui i ricercatori continuano a perfezionarlo, ha un’andatura dinoccolata ma
decisa. Si è fatto onore anche fuori dal laboratorio nel settembre 2015,
quando ha festeggiato la Notte Europea dei Ricercatori sorreggendo la Torre
di Pisa. Walk-Man è stato progettato per adattarsi a qualsiasi tipo di terreno
e a situazioni difficili e impreviste, in modo da poter essere utilizzato come
robot di salvataggio. Con gli stessi obiettivi, dal 2007, sempre all’IIT, si sta
lavorando a HyQ (Hydraulic Quadruped), il robot che con le sue quattro
zampe molleggiate potrebbe intervenire per prestare i soccorsi nelle zone
colpite da un terremoto o da un incidente.

È un robot potente, che ha la forza per fare movimenti veloci,


superare ostacoli e tenersi in equilibrio, telecomandato
dell’operatore con un joystick,

spiega Claudio Semini, responsabile del progetto. L’idea è di dargli due


braccia, trasformandolo in un centauro hi-tech, e di prepararlo alle prime
operazioni sul campo intorno al 2020.
La robotica soffice, però, non finisce qui. C’è un altro filone di ricerca
basato sullo stesso principio che tende a imitare la natura, riproducendone
la semplicità nelle macchine, e che ha scelto come modello gli invertebrati.
Dopo un inizio in sordina, dovuto forse allo scetticismo suscitato da un
punto di vista decisamente innovativo, nel 2012 c’è stata un’esplosione di
interesse sia da parte del mondo scientifico sia del pubblico. È il 30 ottobre
2012 quando nel Museo della Scienza di Londra il robot-polpo Octopus
viene accolto dall’entusiasmo dei visitatori, mentre uno dei suoi tentacoli
dall’aspetto lattiginoso fluttua sinuoso finché non avverte che qualcosa lo
sta sfiorando, lentamente si avvolge attorno a un dito, si irrigidisce e lo
afferra saldamente, stringe la sua preda e tira. Il dito appartiene alla
ricercatrice che ha costruito Octopus e inaugurato questo filone della
robotica soffice, salendo al primo posto nelle classifiche internazionali delle
pubblicazioni in questo settore. Si chiama Cecilia Laschi, lavora
nell’Istituto di BioRobotica della Scuola Superiore Sant’Anna a Pontedera
(Pisa) e coordina il programma europeo RoboSoft. Con Barbara Mazzolai,
che coordina il Centro di Micro-BioRobotica dell’Istituto Italiano di
Tecnologia (IIT), sempre a Pontedera, Cecilia Laschi è entrata nella
classifica delle 25 donne geniali che nel 2015 hanno dato un contributo
decisivo alla robotica a livello internazionale. Spiega la ricercatrice:

Uno dei concetti fondamentali è quello secondo cui non solo il


cervello, ma il corpo fisico ha un ruolo: facciamo certi movimenti
perché il corpo è fatto così. Per esempio, possiamo camminare su
terreni non perfettamente piani perché il ginocchio è cedevole,
grazie alle proprietà meccaniche dei tendini e dei legamenti che
permettono di compensare le asperità del terreno.

È quella che si chiama “embodied intelligence”, ossia l’intelligenza


distribuita nel corpo: considerarla è il primo passo per poter riprodurre i
meccanismi di semplificazione che la natura ha messo in atto nel corso
dell’evoluzione e che neuroscienze e intelligenza artificiale hanno permesso
di studiare.

Per realizzare l’embodied intelligence serve un corpo


completamente diverso, ed è così che avviene il passaggio alla
robotica soffice: è un mondo inesplorato,

dice Cecilia Laschi. La prima regola che si incontra lungo questa strada ha
un nome curioso, “simplessità”, coniato nel 2012 dal fisiologo Alain
Berthoz.
Finora – spiega Laschi – per semplificazione si intendeva un
modello più semplice, ma essere semplici non porta a niente: la
natura non ha semplificato il sistema, ma il controllo. Nel corso
dell’evoluzione il cervello è riuscito a mettere a punto un sistema
velocissimo ed efficiente: un sistema difficile da realizzare, ma alla
fine con pochi segnali si controlla tutto.

Per tradurre in pratica questi nuovi principi la ricercatrice ha scelto il


polpo come modello e ha deciso di utilizzare materiali morbidi. Quali?

Il meccanismo di semplificazione del polpo è la distribuzione dei


muscoli: non ha parti rigide eppure fa movimenti complessi, come
afferrare oggetti e tirarli. Per fare queste operazioni può irrigidire
parti del suo corpo, come i bracci, ridurne il diametro e allungarli
oppure contrarli. Alla fine ci troviamo davanti a uno scheletro
modificabile: il polpo ha lo scheletro dove gli serve.

Silicone, cavi, molle e fibre di PET, il materiale di cui sono fatte le


bottiglie di plastica, sono stati utilizzati per realizzare Octopus, il progetto
del robot-polpo promosso dall’Unione Europea nel 2009. È stato questo
progetto ad aprire la strada ai robot di questo tipo a livello internazionale e
uno dei primi ad arrivare è stato il piccolo robot cilindrico Meshworm, fatto
di fibre intrecciate e costruito nel 2010 nel Massachusetts Institute of
Technology (MIT) dal gruppo di Sangok Seok.
Nell’anno successivo Robert F. Shepherd, dell’università di Harvard ha
costruito un robot in silicone in grado di muoversi in modo fluido con le sue
quattro zampe, assumendo diverse andature grazie a cinque attuatori e a un
sistema automatico. Bruchi e amebe hanno ispirato i robot soffici costruiti
da Takuya Umedachi, della Tufts University, ma solo nel 2012 è stato
chiaro che i robot soffici possono fare cose che quelli tradizionali non sono
in grado di compiere e da allora il numero delle pubblicazioni è esploso.
In quell’anno è stato costruito anche il primo robot granulare: una sorta
di pinza in grado di afferrare oggetti di ogni tipo, ottenuta riempiendo una
membrana di un materiale granulare, come la polvere di caffè; togliendo
aria si crea un sottovuoto, i grani si attaccano fra loro e il robot diventa
rigido. Il primo esperimento è nato dalla collaborazione dell’università di
Chicago e della Cornell University. Nel 2016 sarà la volta della prima Soft
Robotics Challenge, la sfida internazionale riservata ai robot invertebrati.
Polpi, bruchi, pesci e meduse, perfino delle masse informi che ricordano
delle amebe: i robot soffici possono assumere le forme più diverse e, con
esse, anche diverse funzioni.
Un ottimo esempio è il robot-scarafaggio costruito in Russia,
nell’università federale del Baltico, a Kaliningrad. Ha le dimensioni di un
vero scarafaggio, si muove altrettanto velocemente e il suo corpo flessibile
gli permette di entrare e muoversi anche in luoghi difficilmente
raggiungibili. Nel 2016 lo scarafaggio ha ispirato anche il gruppo
dell’università di Berkeley coordinato da Robert Full, che ha costruito un
robot capace infatti di schiacciarsi fino a ridurre il suo spessore a nemmeno
3 millimetri. In questo modo riesce a penetrare all’interno di crepe e fessure
in meno di un secondo e, una volta dentro, può muoversi velocemente.
Cram, come è stato chiamato questo robot, in futuro potrà essere utilizzato
in zone inaccessibili per l’uomo, come nei cumuli di macerie alla ricerca di
vittime e sopravvissuti di terremoti, esplosioni o uragani. Un’altra
applicazione interessante della robotica soft è stata sperimentata
nell’università dell’Iowa, dove sono stati costruiti minuscoli tentacoli
robotici morbidi, flessibili, trasparenti e soprattutto così precisi da poter
afferrare delicatamente le minuscole e fragilissime uova di un pesce che
vive nell’Artico e che solitamente si rompono quando vengono prese con le
pinzette rigide. Per questo una delle possibili, future, applicazioni potrebbe
essere in sala operatoria a fianco dei chirurghi.
Dei robot ispirati agli animali fanno parte anche pesci, lamprede,
anguille e salamandre. La lampreda è il risultato del progetto italiano
Lampetra, condotto dalla Scuola Superiore Sant’Anna, mentre l’anguilla
elettrica è stata costruita in Francia; in Svizzera è stato costruito il robot-
salamandra, mentre in Giappone è stato realizzato il colibrì. Dello zoo dei
robot fa parte anche il ghepardo costruito nel MIT, che ha un fisico meno
snello rispetto a un vero ghepardo ma è ugualmente agile e capace di
accelerare e correre fino a 50 chilometri orari. Anche questo è un caso di
intelligenza distribuita nel corpo: il robot-ghepardo è così veloce grazie a un
algoritmo sviluppato dal gruppo coordinato da Sangbae Kim: ogni zampa è
programmata in modo da esercitare sul terreno l’esatta quantità di forza
necessaria a mantenere costante la velocità. È stato costruito anche un
robot-topo, con tanto di pelliccia per renderlo più credibile: chiuso in
gabbia con un topo vero, gli ha insegnato come aprire un erogatore di cibo.

Figura 5.2 – Octopus, il robot-polpo realizzato in Italia dal gruppo di Cecilia Laschi, della Scuola
Superiore Sant’Anna di Pisa (fonte: Jennie-Hills, London Science Museum).

Altrettanto credibile è stato il robot-pesce che, infiltrato in un banco di


veri pesci, è diventato la loro guida. Ispirato a polpi, seppie e calamari per
la forma e il modo in cui si muove, è invece PoseiDrone, il robot
sottomarino che con i suoi quattro tentacoli nuota, cammina e manipola
oggetti in acqua. È abbastanza flessibile da deformarsi e resiste agli urti più
violenti. Per le sue caratteristiche potrebbe essere utilizzato per ispezionare
strutture sommerse, oppure in ambienti di pregio storico e naturalistico per
curarne la manutenzione.

Simplessità
La simplessità è un concetto recente alla base dell’ingegneria
come delle neuroscienze e consiste nel riprodurre effetti
complessi con le modalità più semplici possibili. È un concetto
utilizzato in molti ambiti, dal design al marketing, ed è uno dei
punti di riferimento della cosiddetta robotica soft, che tende a
riprodurre nelle macchine i meccanismi semplici che
controllano i movimenti degli organismi naturali e il loro modo
di adattarsi all’ambiente.
Il termine è stato introdotto nel 2012 dal fisiologo Alain
Berthoz nel libro Simplessità, semplificando i principi di un
mondo complesso e si riferiva al corredo di soluzioni che gli
organismi viventi mettono in atto per gestire informazioni e
situazioni, mentre tengono conto delle esperienze passate e
anticipano quelle future, in modo da agire nel modo più rapido,
elegante ed efficiente. Secondo Berthoz l’intera storia degli
organismi viventi può essere considerata il frutto della loro
capacità di trovare soluzioni per evitare la complessità. Non si
tratta affatto di soluzioni semplici, ma del frutto di una serie di
operazioni tese a trovare il modo di agire migliore.

La storia della robotica soft non finisce qui perché è cominciata una
sfida ancora più ambiziosa, che prende le piante come il modello per
costruire futuri robot. “Finora le piante sono sempre state considerate degli
organismi passivi”, ma sappiamo che non è così perché

le piante si muovono continuamente e continuano a crescere per


tutta la vita, si adattano all’ambiente e ottimizzano il consumo
energetico, per esempio reagendo alle variazioni di umidità e
temperatura,

spiega Barbara Mazzolai. Le piante sono perciò un ottimo esempio di


un’intelligenza distribuita che punta a sfruttare al meglio l’ambiente che le
circonda. “Osservandole – prosegue la ricercatrice – generiamo nuove
tecnologie.” Per questo i ricercatori cercano di imitare alcune funzioni
cruciali delle piante. Le radici, per esempio, hanno capacità tattili molto
sviluppate, ma non hanno un cervello, e la sfida allora è ideare materiali che
rispondano a stimoli tattili pur non avendo un cervello.

La scommessa è integrare un sistema simile in robot complessi,


semplificando controllo ed energia e integrando sistemi provenienti
da mondi diversi per semplificare e consumare meno. È importante
aprirsi a tecnologie che non vengono dalla robotica più classica.

Certamente fino a non molti anni fa parlare delle piante come di


organismi in continuo movimento era poco credibile, ma adesso le
tecnologie permettono di vedere i movimenti delle piante, consentendoci di
conoscere un mondo completamente diverso dal nostro.

Robot abili
Non solo mani: i robot stanno imparando a utilizzare strumenti
per manipolare oggetti senza afferrarli direttamente. L’esempio
che ha riscosso più successo è stato il robot pizzaiolo,
realizzato nell’ambito del progetto europeo RoDyMan
(RObotic DYnamic MANipulation). “È un esempio di
manipolazione non prensile, che avviene senza che il robot
afferri direttamente l’oggetto. Dato che per preparare una pizza
serve una straordinaria destrezza manuale si è pensato di
realizzare un robot pizzaiolo”, spiega il coordinatore scientifico
del progetto, Bruno Siciliano, del Dipartimento di Ingegneria
Elettrica e Tecnologie dell’Informazione dell’Università di
Napoli Federico II. L’obiettivo del progetto è realizzare un
robot con un’abilità manuale tale da manipolare oggetti
deformabili, sia oggetti elastici (che una volta deformati sono
in grado di tornare alla loro forma originaria) sia oggetti
plastici (duttili e in grado di assumere qualsiasi forma, come la
plastilina). Il robot pizzaiolo Rodyman è la dimostrazione più
eloquente di queste abilità, capace com’è di modellare un disco
di pasta per la pizza e di farlo volteggiare come un autentico
pizzaiolo.
Figura 5.3 – RoDyMan, il robot pizzaiolo (fonte: Bruno Siciliano, progetto
RoDyMan).

È quanto basta per aprire la strada a nuove e numerose


applicazioni in diversi settori dell’industria manifatturiera, a
partire da quella delle calzature. Un robot così abile e delicato
nel manipolare ha già suscitato interesse nel settore della
biomedicina. Per Siciliano, “la realizzazione di un robot capace
di manipolare oggetti come un essere umano è tra le sfide più
attese e difficili della robotica. Si tratta di replicare in una
macchina abilità che sono frutto dell’evoluzione biologica e
culturale dell’uomo. L’impresa è difficilissima, soprattutto per
due ordini di problemi. Primo: non conosciamo del tutto la
natura umana, condizione indispensabile per poterne replicare
le funzioni in una macchina. Secondo: ci molti sono limiti
tecnici alla realizzazione di un robot bio-ispirato, non ultimi
quelli relativi alla necessità di renderlo conviviale ed
esteticamente apprezzabile”.
Capitolo 6

CHE ASPETTO AVRANNO?

Uno schermo scuro, triangolare, con gli angoli smussati e leggermente


curvo: è la faccia hi-tech di uno dei primi robot domestici progettati per
essere prodotti su larga scala. Niente occhioni rotondi e ingenui dei primi
robot costruiti per interagire con l’uomo, ma un display che, volendo, può
illuminarsi in modo da avere anche lui occhi espressivi o una bocca
sorridente, e che quando è necessario può essere utilizzato come lo schermo
di un computer. Questa testa hi-tech completa un corpo elegante, alto un
metro e 30 centimetri, sottile e slanciato, dotato di due braccia e che si
sposta su ruote. Fin da subito, per i ricercatori dell’Istituto Italiano di
Tecnologia (IIT) che l’hanno progettato, è stato “il robot di plastica”. Non è
un caso: più di ogni nome di fantasia, il voler sottolineare che questo robot
è di plastica apre una nuova pagina nella storia della robotica. Dopo le tante
macchine costruite in metallo, complicate e costosissime, i robot devono
cambiare per poter essere prodotti in serie per un mercato di massa, come le
automobili, i televisori o i frigoriferi: devono avere un cuore hi-tech
all’avanguardia ed essere realizzati con materiali economici, che
permettano la produzione in serie e un costo finale accessibile. È il primo
passo concreto per trasformare in realtà “l’arrivo di un robot in ogni casa”
anticipato nel 2007 da Bill Gates.

Il robot di plastica è stato progettato per la produzione industriale e


potrebbe arrivare sul mercato con applicazioni commerciali, per
esempio per lavorare nei negozi e nei ristoranti, negli aeroporti e
nella reception degli hotel, oppure per dare assistenza capillare agli
anziani,
ha osservato uno dei ricercatori all’avanguardia a livello mondiale in questo
campo, Giorgio Metta, vice direttore scientifico dell’IIT a capo del gruppo
che ha progettato il nuovo robot.

Per questo – ha spiegato – è importante arrivare a un prodotto che


non costi più di un’utilitaria.

Quello che promette di diventare il più sofisticato degli elettrodomestici


potrebbe costare intorno a 12.000 euro. Se pensiamo che i robot destinati
alla ricerca, come iCub, costano 250.000 euro, appare subito chiaro
l’enorme sforzo fatto dai progettisti: ottenere una macchina avanzatissima e
sicura, tanto da interagire quotidianamente con gli uomini, con un costo di
oltre venti volte inferiore.
Il primo passo è stato dire addio al corpo di metallo dei robot
tradizionali. Per i robot destinati a vivere in casa, o almeno per la loro prima
generazione, si prevedono materiali simili alla plastica, ma molto più
sofisticati di questa. Sono materiali polimerici, simili alle plastiche e alle
gomme usate comunemente nella vita quotidiana, irrobustiti perché
mescolati con nanoparticelle di grafene, il materiale sottile come un atomo
e super-resistente la cui scoperta è stata premiata nel 2010 con il Nobel per
la Fisica. Materiali come questi sono anche più versatili rispetto ai metalli,
offrono prestazioni migliori e permettono di costruire robot morbidi e
rassicuranti. Il processo di fabbricazione dovrà essere molto semplice,
perciò non dovrà prevedere procedure sofisticate e costose, magari potrebbe
ricorrere alla stampa 3D. Sempre in vista della produzione su larga scala è
molto importante che questi nuovi materiali siano eco-compatibili e
riciclabili.
Un’altra priorità è la sicurezza, e anche in questo caso si guarda
all’esperienza accumulata finora per fare tesoro di tutto ciò che ha
funzionato e per imparare dagli errori. I robot della nuova generazione non
sarebbero mai potuti esistere senza i loro predecessori di metallo ed è la
loro storia a suggerire che, alla vigilia di una produzione in milioni di
esemplari, le attuali gambe robotiche non possono essere ancora considerate
abbastanza affidabili. I robot che le hanno possono perdere l’equilibrio e
cadere ancora molto facilmente.
Come rilevava il papà di Asimo, il giapponese Satoshi Shigemi, dare
l’equilibrio a un robot è una delle sfide maggiori e non è quindi un caso se
di tutti i robot costruiti nell’arco di una trentina di anni, fra il 1980 e il
2010, solo una minoranza (circa il 20%) aveva le gambe. La maggior parte
di essi si spostava su ruote, muovendosi con sicurezza. Hanno le ruote
anche i robot per la telepresenza che abbiamo già incontrato, così come i
prototipi che nella fase di sperimentazione sono già entrati nelle case degli
anziani. Le ruote sono perciò una buona scelta, considerando che un robot
domestico che si rispetti debba rimanere stabile in ogni situazione per dare
sicurezza alle persone che assiste e per non mettere a rischio l’incolumità di
chi gli sta vicino. I primi robot domestici prodotti in serie avranno quindi le
ruote. È così anche per il robot di plastica. Secondo Giorgio Metta, “le ruote
al momento sono necessarie perché assicurano la stabilità in ogni
situazione”.
Essere economico, sicuro e bello naturalmente non basta: il robot di
plastica dovrà saper svolgere molte funzioni ed essere in grado di
intervenire in situazioni diverse e avrà molto da imparare per adeguarsi
all’ambiente in cui lavorerà ed “è chiaro che non potrà mai essere un
bambino come iCub”. Quest’ultimo, come abbiamo visto, è nato con
capacità confrontabili a quelle di un bambino di tre anni e ha davvero tutto
da imparare e per questo è uno strumento ideale per la ricerca. Il caso del
robot di plastica è completamente diverso:

Comunicare con un robot come questo sarà molto simile a usare uno
smartphone. Per ognuna di queste macchine – ha spiegato Metta – è
prevista una fase di addestramento, nella quale basterà mostrare loro
un oggetto perché impari a riconoscerlo e a usarlo. Si dovranno
scaricare delle app, proprio come oggi si fa con gli smartphone, e
ciascuna app avrà un dominio limitato a compiti molto specifici,
come: “Innaffia le piante”, o: “Dai la pappa al gatto”. Nella fase di
addestramento bisognerà soprattutto parlare e mostrare. Grazie a
tecnologie di apprendimento automatico, inoltre, ogni robot
costruirà la mappa necessaria per muoversi nel suo ambiente.

In questo modo ognuno potrà personalizzare il suo robot, a seconda


delle necessità. Ci saranno diversi modi per comunicare con il robot perché
questa macchina avrà una voce, un sistema di riconoscimento vocale e una
visione in 3D e potrà proiettare nell’ambiente informazioni, indicare oggetti
o luoghi. Pesante una quarantina di chili, ha un corpo versatile, con le
braccia e il torso che possono allungarsi di 15 centimetri in modo da
riuscire a prendere o mettere a posto oggetti che si trovano in alto. Le mani
non hanno dita: sono delle specie di muffole con un palmo e un pollice. Il
loro aspetto è molto semplice, ma la loro presa è sufficiente per aprire
cassetti e porte, afferrare oggetti, raccoglierli da terra e portarli a chi ne ha
bisogno; possono sollevare pesi fino a un paio di chili e hanno anche
percezioni tattili, grazie alla pelle hi-tech che le riveste fino
all’avambraccio. Come tutte le macchine non può lavorare
ininterrottamente senza una fonte di alimentazione energetica, perciò è
necessario ricaricare le batterie al litio del robot ogni tre ore. In un domani
non troppo lontano qualcuno potrà spaventarsi nel vedere decine e decine di
robot di plastica esposti nei negozi di elettronica, altri probabilmente non
vedono l’ora di averli dentro casa. In ogni caso chi deciderà di convivere
con un robot, secondo Metta,

imparerà a usarlo come finora si è fatto con gli elettrodomestici:


ognuno avrà il loro manuale d’uso, con procedure che saranno alla
portata di tutti.

Con l’arrivo dei primi robot prodotti in serie comincerà


immediatamente una lunga avventura nella quale i robot si modificheranno,
cambiando aspetto fisico e funzioni. È un futuro al quale si è cominciato a
pensare da subito, a partire da una considerazione molto semplice:

Come tutte le macchine i robot possono rompersi ma, considerando


che sono destinati a funzionare almeno per sedici ore al giorno, non
è pensabile chiamare il tecnico una volta al mese. Saranno da
ripensare anche le batterie della durata, al momento, di sole tre ore,

ha detto Metta. Per questo bisogna semplificare e il primo passo per farlo è
scegliere nuovi materiali.
Adesso abbiamo il “robot di plastica”, a breve potremmo avere
robot fatti di altri materiali, come gli smart materials,

i materiali intelligenti che possono modificare le loro caratteristiche in


risposta ai cambiamenti dell’ambiente esterno, come le variazioni nella
temperatura, nell’umidità, nel campo elettrico o in quello magnetico. Robot
fatti di materiali conduttivi potrebbero dire addio ai fili perché la corrente
elettrica scorrerebbe velocemente nei circuiti stampati al loro interno. Dal
grafene potranno arrivare anche sensori tattili di nuova generazione, mentre
le batterie al litio potrebbero essere sostituite da batterie miniaturizzate e
dalla durata maggiore, basate su celle a combustibile a metano. Si spera di
salutare presto anche le viti.
Via, quindi, dalla struttura fisica dei robot qualsiasi elemento complesso
e a rischio di rottura e guasti. Saranno invece benvenute funzioni nuove e
sempre più complesse.

Costruire robot sempre più efficienti è più semplice che costruire un


747, ma è ancora più complesso del costruire un’automobile,

ha osservato Metta. Uno dei prossimi obiettivi sarà mettere i robot in


condizione di capire il linguaggio quotidiano anche in ambienti rumorosi;
cambiamenti importanti riguarderanno anche l’intelligenza dei robot. Non
aspettiamoci macchine intelligentissime:

In sé i robot sono un po’ stupidi, ma la loro capacità di calcolo è nel


cloud,

ha osservato Metta riferendosi al ruolo sempre più importante che


l’intelligenza artificiale è probabilmente destinata a rivestire. Nella nuvola
informatica i robot potranno trovare l’intelligenza remota che metterà loro a
disposizione tutte le informazioni di cui avranno bisogno per orientarsi
nell’ambiente e per interagire con l’uomo. Per esempio, grazie
all’intelligenza artificiale e a procedure di apprendimento automatico
elaborate in collaborazione fra MIT e IIT, robot diversi potranno
riconoscere una stessa persona.
Spingendosi ancora più in là nel futuro si possono immaginare altri
cambiamenti, nati dall’incontro delle diverse linee di ricerca che la robotica
ha intrapreso.
È possibile, per esempio, che la robotica soft incontri quella più
tradizionale. Abbiamo visto che sta accadendo fin da adesso con i robot
equipaggiati con giunti che simulano la naturalezza dei movimenti umani
ed è verosimile che i futuri robot domestici possano essere degli ibridi con
uno scheletro, magari con articolazioni a cedevolezza variabile, e un corpo
morbido fatto, come abbiamo già visto, con materiali simili a quelli dei
robot invertebrati che imitano i polpi. La ricercatrice che ha costruito il
primo robot-polpo, Cecilia Laschi, è convinta che

alla fine si potrà tornare ai robot umanoidi, realizzando robot con


parti rigide all’interno che abbiano la funzione dello scheletro, e
fuori fatti di silicone o fibre, sfruttando tutti i meccanismi di
semplificazione che sono alla base della robotica soft. Immagino
robot costruiti con parti morbide, più simili agli animali e agli esseri
umani, in una convergenza tra la robotica tradizionale basata su
componenti rigide e l’uso di materiali soft.

Sono numerosi i gruppi di ricerca che nel mondo stanno lavorando per
costruire macchine più leggere ed economiche dei robot tradizionali e che
siano capaci di collaborare con l’uomo.

Robot del genere – ha aggiunto Cecilia Laschi – potranno essere più


adatti all’ambiente reale in quanto permetteranno alle macchine di
avere movimenti più precisi. Di certo saranno meno veloci dei robot
industriali, ma saranno più simili a noi.

I robot domestici delle prossime generazioni potrebbero essere


umanoidi dall’aspetto morbido e rassicurante, capaci di controllare i loro
movimenti in ambienti complessi come le città grazie all’intelligenza
diffusa nel loro corpo. Difficile dire che aspetto avranno: se saranno simili
all’uomo, se avranno facce buffe come quelle dei personaggi dei cartoni
animati, o ancora lineamenti essenziali e stilizzati. È possibile però che
siano colorati e che possano cambiare tonalità, diventando blu o gialli a
seconda di ciò che li sfiora o che accade intorno.
La pelle artificiale che permetterebbe tutto questo è già stata costruita e
descritta sulla rivista Science. È sensibile al tatto ed è fatta di un materiale
morbido come il silicone, al cui interno sono stati incastonati elettrodi di
idrogel e particelle di solfuro di zinco, rame e manganese: a seconda della
miscela, ogni volta che viene sfiorata la pelle si illumina e assume colori
diversi: diventa blu se prevale il rame, oppure gialla se invece domina il
manganese. È stata realizzata grazie alla collaborazione fra il gruppo
coordinato da Robert Shepherd, dell’americana Cornell University, e
Barbara Mazzolai, dell’IIT. Oltre a essere sensibile al tatto, la pelle robotica
è straordinariamente elastica.

Ispirandoci alla pelle del polpo abbiamo ottenuto un materiale con


proprietà tattili e iper-elastico, al punto che può essere deformato del
500% e tornare all’aspetto originario. La pelle è stata utilizzata per
rivestire un braccio soft che, piegandosi, provoca una deformazione
della pelle e un conseguente cambiamento di colore,

ha detto Barbara Mazzolai. Per i ricercatori è un altro passo lungo la strada


che punta a “rendere i robot sempre più sicuri nell’interazione con l’uomo”.
Figura 6.1 – La pelle artificiale super-elastica e in grado di illuminarsi (fonte: Science, Organic
Robotics Lab at Cornell University).

Percependo la pressione che viene esercitata sulla pelle i robot riescono


a capire se sono a contatto con un essere umano e possono allontanarsi: è il
loro stesso corpo a informarli se devono spostarsi o meno. Immaginando un
passo in avanti ulteriore potremmo anche pensare a robot mimetici, dei
camaleonti hi-tech che assumono il colore che li confonda con l’ambiente in
modo da rendere la loro presenza più discreta.
La pelle robotica è un passaggio importante verso la realizzazione di
quanto due ricercatori dell’università del Colorado a Boulder, Nikolaus
Correll e Michael McEvoy, avevano previsto e auspicato nell’articolo
pubblicato nel 2015 sulla rivista Science. Allora avevano indicato una pelle
robotica con un senso del tatto realistico tra le possibili ricadute di una
nuova generazione di quelli che avevano definito una nuova categoria di
“materiali davvero intelligenti”, che fossero capaci di cambiare aspetto e
forma autonomamente grazie a sensori, attuatori e capacità di calcolo
integrate al loro interno. I nuovi materiali potranno aprire la strada anche ad
aerei transformer capaci di cambiare il profilo alare come fanno le aquile,
per renderlo più aerodinamico, migliorare le prestazioni e ridurre il
consumo di carburante; si possono immaginare anche automobili capaci di
rendersi più visibili, per esempio in caso di nebbia, adattandosi alle
condizioni meteorologiche, o ancora ponti che si accorgono di avere una
lesione e si riparano da soli, come fa la pelle per guarire una ferita. A
dettare la linea è ancora una volta la robotica soft:

Guardiamo a organismi come le seppie, capaci di cambiare aspetto a


seconda delle trasformazioni che avvengono nell’ambiente, o il
banano, che sviluppa un numero supplementare di radici per
sostenere il peso del fusto,

hanno scritto Correll e McEvoy su Science. La grande sfida per ottenere


nuovi materiali davvero intelligenti è nel distribuire al loro interno la
capacità di calcolo e a questo obiettivo stanno lavorando centri di ricerca di
tutto il mondo, dagli Stati Uniti al Giappone. È la nuova frontiera della
cosiddetta “materia programmabile”, teorizzata all’inizio degli anni
Novanta: la vera sfida non sarà tanto realizzare materiali di questo tipo,
quanto renderne possibile la produzione su larga scala. Ma quando i futuri
materiali per la robotica saranno una realtà, potranno essere utilizzati in
moltissimi oggetti della vita quotidiana: useremo cose davvero intelligenti,
come scarpe con suole sensibili alla pressione e che diventano più o meno
rigide se stiamo passeggiando o correndo.

Poiché immaginiamo che un materiale del genere sia fatto di piccole


parti ognuna delle quali ha un attuatore, un sensore e un minuscolo
computer, non sarà semplice vedere il momento in cui una
tecnologia così complessa sarà disponibile a buon mercato. È anche
vero però che i progressi fatti negli ultimi dieci anni con gli
smartphone dimostrano il contrario.

Servirà sicuramente un grande sforzo interdisciplinare che integri


scienza dei materiali, informatica, robotica e processi di produzione.
Se la strada indicata da Correll e McEvoy si annuncia lunga e difficile,
la storia della scienza e quella della tecnologia ci hanno insegnato che gli
sviluppi sono molto spesso imprevedibili.

Considerando le tecnologie attuali possiamo fare delle stime basate


sulla semplice evoluzione dell’esistente, ma sappiamo che a volte
arrivano fenomeni che trasformano eventi prevedibili in qualcosa di
molto diverso, in un salto verso l’innovazione,

ha osservato Paolo Dario, direttore dell’Istituto di BioRobotica della Scuola


Superiore Sant’Anna di Pisa, che aggiunge:

È successo, per fare un esempio recente, quando nel gennaio 2007


Steve Jobs presentò l’iPhone: nessuno allora sarebbe mai stato in
grado di prevederne il successo né, soprattutto, avrebbe potuto
immaginare l’evoluzione e lo sviluppo che avrebbero avuto gli
smartphone. La stessa conoscenza scientifica procede in questo
modo: qualcosa che prima era sconosciuto diventa noto, avviene
l’irruzione di una conoscenza che era imprevedibile.
L’innovazione che arriva dalla scienza, come quella alla quale abbiamo
dato un’occhiata in questo capitolo, è una spia del futuro e fin da ora,
secondo Paolo Dario, lascia immaginare

generazioni di robot ripensati rispetto a quelli attuali, sicuramente


nel corpo e un po’ anche nella mente. Non saranno di metallo e
nemmeno di plastica, ma saranno fatti di materiali morbidi e
avranno principi di funzionamento diversi, una sorta di intelligenza
a bordo.

Se questo scenario sembra già fantascientifico, quello che si prepara fra


cinquant’anni lo è a maggior ragione: si possono immaginare robot
biologici, costruiti con materiali simili a quelli organici e progettati con
cellule staminali e software a DNA.

Materia programmabile
La materia programmabile è una materia equipaggiata con un
corredo di sensori e capacità di calcolo, ossia minuscoli
computer, che le permettono di modificare forma, aspetto e
proprietà, come quelle ottiche o la conduttività. Il termine è
stato introdotto nel 1991 dall’italiano Tommaso Toffoli, che
insegna Ingegneria elettrica e Informatica nell’università di
Boston, e dal canadese-americano Norman H. Margolus, del
Laboratorio di Informatica e Intelligenza artificiale del
Massachusetts Institute of Technology (MIT). Si riferiva a un
insieme di nodi di calcolo a grana fine disposti in uno spazio e
che comunicavano fra loro interagendo con i nodi più vicini. In
seguito ai progressi fatti nei campi dei semiconduttori e delle
nanotecnologie, la materia programmabile è uscita dalla teoria
per diventare una possibilità concretamente realizzabile e il suo
significato è mutato e ora indica una sostanza che può essere
programmata in modo da modificare le sue proprietà fisiche.
Ha ispirato anche la fantascienza e nel 2003 Wil McCarthy le
ha dedicato il romanzo The Wellstone, dal nome che aveva
coniato per la materia programmabile e che nel romanzo era
capace di imitare qualsiasi altra materia.
Capitolo 7

INDOSSABILI, INIETTABILI,
INGOIABILI

Las Vegas, 1961, in uno dei tanti casinò c’è un uomo che sembra baciato
dalla fortuna. Non sbaglia un colpo. Indossa un auricolare, senza dare
troppo nell’occhio, e non si direbbe che sia in compagnia. Con lui, a una
certa distanza attorno al tavolo della roulette, c’è un altro uomo che sembra
soffrire di un tic nervoso: ogni volta che la pallina comincia a girare, batte il
tacco della scarpa a intervalli regolari. In realtà sta inviando dati sui
movimenti della pallina al computer che ha nascosto nel tacco e da lì, con
un collegamento wireless, i dati raggiungono un secondo computer che lo
stesso uomo ha nascosto nel pacchetto di sigarette. Il computer del
pacchetto elabora i dati utilizzando uno speciale algoritmo che calcola dove
la pallina ha le maggiori probabilità di fermarsi, quindi traduce il numero
nel tono musicale corrispondente (ne è stato programmato uno per ogni
possibile numero della ruota) e lo invia all’auricolare del primo uomo. A
quest’ultimo non resta che interpretare il tono e puntare sul numero
vincente. Non è stato un trucco ingegnoso escogitato da due giocatori
incalliti: protagonisti di questo episodio sono stati Edward Thorp e Claude
Shannon, entrambi matematici del Massachusetts Institute of Technology
(MIT), e subito dopo quell’unico viaggio a Las Vegas hanno donato il loro
ingegnoso dispositivo al museo del MIT. Hanno fatto bene perché non
soltanto erano riusciti a costruire dei computer in miniatura in un’epoca in
cui i calcolatori erano giganteschi, ma perché il loro era anche il primo
esempio in assoluto di tecnologia indossabile: un vero salto nel futuro.
Ci sono voluti almeno 30 anni perché la tecnologia indossabile
cominciasse a far parlare di sé e oltre mezzo secolo perché diventasse
popolare come una moda; nel frattempo la sua strada ha incontrato quella
della robotica, con la nascita di protesi intelligenti, polpastrelli bionici che
avvertono il tatto, esoscheletri per aiutare chi ha perso un arto, ma anche
aprendo la strada all’esplorazione spaziale, o ancora per equipaggiare futuri
soldati. Nei prossimi incontri ravvicinati fra uomini e robot non ci sono
soltanto gli umanoidi che abbiamo incontrato finora. Ci saranno robot da
indossare e robot che possono entrare nel corpo umano: alcuni abbastanza
minuscoli da poter essere ingoiati e altri ancora più piccoli che possono
essere iniettati nei vasi sanguigni per fare diagnosi o per somministrare
farmaci.
Cominciamo dai computer indossabili. Le ricerche di Shannon e Thorp
avevano sicuramente aperto una strada, ma ci sono voluti almeno dieci anni
perché le ricerche da loro inaugurate facessero dei sostanziali passi in
avanti. Soltanto nel 1977 è stato realizzato il primo casco sul quale era
installata una videocamera in grado di convertire le immagini in sensazioni
tattili per i non vedenti e nel 1986 sono state messe in vendita le prime
videocamere montate sui caschi, come quella utilizzata nel 1987 da Mark
Schulze e Patty Mooney per realizzare The Great Mountain Biking Video,
uno dei primi video istituzionali sulle tecniche di uso della mountain bike.
Quell’episodio ha aperto la strada alle GoPro, le videocamere e fotocamere
indossabili, resistenti all’acqua e agli urti, strumenti indispensabili per la
fotografia d’avventura. Sempre negli anni Ottanta il ricercatore del
Massachusetts Institute of Technology (MIT) Steve Mann ha cominciato a
realizzare i primi computer compatti con videocamera incorporata e in poco
più di dieci anni le sue ricerche hanno portato alla webcam, realizzata nel
1994, e ad altre invenzioni pionieristiche, come la EyeTap, un dispositivo
che si applica davanti all’occhio e che può essere utilizzato nello stesso
tempo come fotocamera e come display: caratteristiche che ne fanno a tutti
gli effetti l’antenato dei Google Glass.
Se possiamo considerare Steve Mann il pioniere dell’elettronica
indossabile, Mark Weiser ne è stato il teorico. Nel 1989 in una conferenza a
Palo Alto ha introdotto un concetto destinato a fare molta strada, quello di
“computer ubiquo”, secondo il quale il calcolo non era più legato al classico
pc da scrivania ma poteva avvenire ovunque e con qualsiasi strumento.
Dopo i tablet, che possono essere considerati la prima concretizzazione
dell’idea di Weiser, nel 2013 i Google Glass l’hanno realizzata
completamente, trasformando il computer in uno strumento disponibile
ovunque, in qualsiasi momento e in ogni situazione. In tutta la tecnologia
indossabile, i sensori, l’elettronica e il software sono incorporati all’interno
di oggetti che, in modo autonomo e senza che l’uomo intervenga in alcun
modo, possono trasmettere e scambiare i dati con altri dispositivi connessi.

Figura 7.1 – Google Glass (fonte: Mikepanhu).

Funzionano così anche i braccialetti che misurano alcuni parametri della


forma fisica, un’altra tecnologia indossabile nata all’inizio degli anni
Ottanta ed esplosa negli anni 2000. Sono i cosiddetti Activity Tracker
entrati in commercio nel 2006: calcolano i dati relativi a distanze percorse a
piedi, consumo di calorie e battito cardiaco e possono inviarli al computer o
allo smartphone. Poter usare dispositivi come questi in campo medico
sembra un passaggio naturale, ma perché questo diventi possibile sarà
necessaria l’approvazione da parte delle Agenzie nazionali per il controllo
sui farmaci. Non sarà comunque un passaggio semplice da gestire perché
bisognerà considerare come proteggere la riservatezza dei dati.
Dal braccialetto all’orologio: gli antenati dei moderni smartwatch
risalgono addirittura a metà degli anni Settanta ed erano orologi digitali con
una calcolatrice incorporata e nei quali si potevano registrare anche dati
come nomi, numeri di telefono, indirizzi e appuntamenti; alcuni modelli
potevano perfino dialogare con i primi personal computer. La produzione su
larga scala di questi orologi intelligenti è comunque avvenuta nel giro di
una decina di anni e oggi sono considerati un’icona degli anni Ottanta. Nei
trent’anni successivi la tecnologia ha fatto passi in avanti da gigante e
intorno al 2010 sono arrivati i primi smartwatch; il vero e proprio boom c’è
stato però nel 2014, con i modelli lanciati dai maggiori produttori
internazionali di smartphone.
Dagli orologi alla moda il passo è stato breve. Ci sono stati episodi
curiosi, come gli orecchini con un minuscolo microfono Bluetooth
incorporato realizzati nel 2008 e la cravatta con una microtelecamera che
risale più o meno allo stesso periodo, ma il vero incontro fra la tecnologia
indossabile e la moda è arrivato con la possibilità di incorporare dei sensori
all’interno della stoffa, come è accaduto con la maglietta che rileva
elettrocardiogramma, temperatura della pelle e ritmo del respiro
sperimentata nel 2015 sulla Stazione Spaziale dall’astronauta Samantha
Cristoforetti. Ma i sensori non bastano e la ricerca è al lavoro per riuscire a
incorporare circuiti elettronici miniaturizzati nella trama dei tessuti,
trasformando così un capo di abbigliamento in un computer.
Questa rapidissima carrellata sull’evoluzione delle tecnologie
indossabili è utile per avere un’idea più precisa di che cosa potrà preparare
il futuro, nel momento in cui queste tecnologie saranno pronte a incontrare
la robotica vera e propria. I robot indossabili hanno avuto infatti una storia
indipendente, focalizzata soprattutto sulla ricerca di protesi intelligenti per
le persone che hanno subito amputazioni di mani, braccia o gambe. È stata
una lunga strada partita dai robot industriali: le loro mani e i loro bracci
sono stati perfezionati, modificati, trasformati nei laboratori per ottenere
mani capaci di sostituire quelle umane. Questo filone di ricerca era partito
dal MIT a metà degli anni Sessanta, con i primi studi sulla possibilità di
controllare gli arti artificiali con i segnali bioelettrici generati dall’attività
cerebrale. Da allora la ricerca è andata avanti lungo due binari: da un lato si
è concentrata sugli elettrodi per connettere il cervello a dispositivi
indossabili per creare interfacce capaci di mettere in comunicazione uomini
e macchine, dall’altro si sono realizzate protesi sempre più avanzate.
Il primo filone di ricerca ha portato ai primi occhi bionici, nei quali la
retina danneggiata è stata sostituita stimolando il nervo ottico direttamente
nel cervello, e all’orecchio bionico, una protesi capace di sostituire
l’apparato uditivo; poi sono arrivate mani e gambe bioniche e un
polpastrello in grado di percepire il tatto con una sensibilità confrontabile a
quella naturale. Una delle prime mani controllate con il pensiero, ossia per
mezzo di un’interfaccia uomo-macchina, è stata realizzata nel 2007 in
Italia, controllata da una persona che, indossando una cuffia con elettrodi
per l’elettroencefalogramma, immaginava i movimenti della mano mentre
l’attività elettrica del suo cervello veniva tradotta in istruzioni che la
facevano muovere.
Nel giro di pochi anni si è arrivati a mani bioniche molto più leggere e
flessibili, risultato della lunga esperienza accumulata nel frattempo nel
settore della robotica soft, che ha lavorato per riprodurre nelle macchine la
naturalezza e la fluidità dei movimenti naturali.
Nel 2010 era ormai chiaro che la strada per costruire mani efficienti,
economiche e affidabili sarebbe passata per le neuroscienze, ossia per lo
studio del modo in cui il cervello organizza la complessità del movimento
della mano.
Nel 2015 è stato realizzato l’esoscheletro ReTeLink, da indossare sul
braccio e collegato per mezzo di Internet con un robot che si trova in un
altro luogo per la riabilitazione a domicilio o teleguidata, ma anche per usi
industriali. Nel 2015 è stata completata anche la prima mano artificiale
stampata in 3D, risultato di un accordo firmato nel 2013 fra Istituto Italiano
di Tecnologia (IIT) e Inail.
Nello stesso anno, al California Institute of Technology (Caltech) per la
prima volta degli elettrodi sono stati impiantati direttamente nell’area del
cervello che non controlla direttamente i movimenti, quanto l’intenzione di
compiere un movimento. In quest’area, chiamata corteccia parietale
posteriore (PPC) prende forma l’intenzione iniziale di compiere un
movimento, che viene poi trasmessa alla corteccia motoria e quindi,
attraverso il midollo spinale, a braccia e gambe, dove il movimento viene
eseguito. Gli elettrodi, impiantati chirurgicamente, hanno permesso a un
uomo tetraplegico di controllare il movimento di un braccio robotico, come
se gli appartenesse. Sono stati fatti passi in avanti anche negli esoscheletri
per le gambe e, fra questi, Cyberlegs (Cybernetic Lower-Limb Cognitive
Ortho-prosthesis) è stato il primo progetto al mondo a combinare protesi
intelligenti, sensori e robot indossabili in un unico kit per far camminare
con meno fatica chi ha subito un’amputazione, ma anche persone anziane
per le quali camminare è faticoso.
Se il punto di partenza delle tecnologie indossabili è stato lo sforzo di
ideare e costruire protesi sempre più facili da accettare, le ricadute sono
interessanti per molti settori. Per esempio si potrebbero costruire macchine
ancora più precise ed efficienti per l’industria manifatturiera; potrebbero
beneficiarne anche le le missioni spaziali, per esempio rendendo più
semplici da usare gli ingombranti, durissimi da piegare ma indispensabili
guanti utilizzati dagli astronauti durante le passeggiate spaziali per fare
riparazioni o montare strumenti. La storia dei robot indossabili promette di
intrecciarsi sempre più anche con la vita quotidiana e non si esclude che più
in là nel futuro le interfacce uomo-macchina possano essere utilizzate per
controllare con il pensiero luce, gas ed elettrodomestici.
Se la tecnologia indossabile è già fra noi, quella iniettabile ha ancora un
forte sapore di fantascienza. La storia dei robot iniettabili è molto recente:
sono macchine minuscole, delle dimensioni di qualche milionesimo di
metro, e possono essere iniettate nel corpo umano per riconoscere le cellule
malate e curarle. La loro storia è molto recente, risale agli anni intorno al
2005 ed è andata di pari passo con lo sviluppo delle nanotecnologie.
Uno dei primi progetti è stato quello promosso nel 2008 dal laboratorio
NEST (National Enterprise for NanoScience and NanoTechnology) della
Scuola Normale Superiore di Pisa, con la realizzazione di nanorobot
programmati in modo da viaggiare nell’organismo in cerca di cellule
malate, come quelle tumorali, riconoscerle e iniettare al loro interno dei
farmaci. Impossibile non pensare al film Viaggio allucinante, di Richard
Fleischer, che nel 1966 immaginava un gruppo di scienziati che si faceva
miniaturizzare con un sommergibile per entrare nei vasi sanguigni di un
collega e operarlo dall’interno. Le navette che nella realtà permettono di
viaggiare nelle arterie sono molto diverse e si sta lavorando per metterne a
fuoco le caratteristiche ottimali.
Uno dei materiali che sembrano più promettenti è la molecola della vita,
il DNA, che nel 2014 è stato utilizzato per costruire dei nanorobot iniettabili
molto particolari. La tecnica con cui sono stati costruiti si è ispirata
all’origami, l’arte giapponese di piegare i fogli. Sono fatti così i robot
iniettabili realizzati da Daniel Levner, dell’università di Harvard, e Ido
Bachelet, dell’università Bar-Ilan di Israele: li hanno costruiti nel 2014 e li
hanno programmati per interagire fra loro e muoversi all’interno di uno
scarafaggio vivo. Il vantaggio di utilizzare un animale come questo è che
non c’è rischio di rigetto, mentre un organismo più complesso, come quello
di un mammifero, potrebbe percepire i nanorobot come aggressori e
scagliare contro di essi le difese immunitarie.
Il programma con cui erano equipaggiati i minuscoli robot era in grado
di eseguire operazioni molto semplici, come ordinare alla molecola di DNA
di aprirsi e rilasciare un farmaco ogni volta che incontrava una particolare
proteina. Nell’esperimento è stato possibile seguire ognuno dei nanorobot,
contraddistinti da un marcatore che li rendeva fluorescenti.
Si basano sull’origami anche i nanorobot messi a punto nel
Massachusetts Institute of Technology (MIT), ottenuti incorporando un
magnete all’interno di un quadratino di plastica fatto ripiegare su se stesso
con il calore; per farli muovere era sufficiente controllare campi magnetici
esterni. Minuscoli robot come questi possono autoassemblarsi nel corpo
umano, navigare verso un punto preciso dell’organismo, eseguire il compito
assegnato, per esempio rilasciare un farmaco, e quindi autodistruggersi,
sciogliendosi.
Dai robot iniettabili a quelli ingoiabili. I primi sono stati delle pillole
equipaggiate con microscopiche telecamere per la diagnosi delle malattie
dell’apparato digerente, sperimentate dall’inizio degli anni 2000.

Figura 7.2 – Capsula endoscopica.

Nei primi test sono state utilizzate capsule simili a quelle di un


antibiotico equipaggiate all’interno con una microtelecamera alimentata da
due batterie, grazie alla quale possono inviare due immagini al secondo.
Tramite un sistema di antenne, alcune delle quali a bordo della capsula e
altre fissate sull’addome del paziente, le immagini vengono inviate a un
registratore. Per vederle basta collegare il registratore al computer. Pillole
come queste sono state sperimentate nel 2004 in Gran Bretagna per la
diagnosi dei tumori di esofago e intestino.
Carlo Rambaldi, il papà di E.T., commentando quell’esperimento
osservò:

È più interessante occuparsi della realtà che della fantascienza


perché quasi sempre la realtà supera la fantasia. La fantascienza
resta uno stadio fiabesco, tutto da concretizzarsi.

Impossibile dargli torto. Ha sfidato la fantascienza anche il progetto


europeo Aracnes, che nel 2008 prevedeva la costruzione di mini robot
chirurghi delle dimensioni di pochi millimetri capaci di eseguire operazioni
chirurgiche dall’interno dell’organismo pur controllati dal medico, che
sostituiva il bisturi con un joystick. Il progetto si chiamava così perché i
robot erano programmati per costruire, nello stomaco, una sorta di ragnatela
nella quale ognuno si disponeva in un punto preciso per assolvere il suo
compito, come dilatare, insufflare aria, vedere, tagliare.
La prima pillola equipaggiata con sensori è stata approvata nel 2012
dall’ente americano per il controllo sui farmaci, la FDA (Food and Drug
Administration). Era la pillola messa a punto dall’azienda Proteus Digital
Health e al suo interno era racchiuso un minuscolo sensore che trasmetteva
i dati a una sorta di cerotto sulla pelle. Il cerotto, a sua volta, trasmetteva,
via Bluetooth o attraverso uno smartphone, i dati relativi al tipo di pillola e
all’orario in cui era stata ingerita. Mentre nello stomaco la pillola veniva
dissolta dai succhi gastrici, il magnesio e il rame del rivestimento
cominciavano a comportarsi come elettrodi, generando una corrente
elettrica. Sono metalli che si trovano comunemente nel cibo. Il chip di
silicio veniva invece digerito. Una pillola termometro che rileva con
continuità la temperatura interna è stata sviluppata dalla NASA in
collaborazione con l’università Johns Hopkins ed è stata sperimentata su
sportivi come alpinisti, ciclisti, calciatori e piloti.
Robot in cui entrare
Le automobili che si guidano da sole sono dei robot a tutti gli
effetti, nei quali l’uomo può entrare per farsi trasportare.
Nell’abitacolo non c’è più il volante, mentre sensori, Gps e
radar permettono ai veicoli-robot di acquisire tutte le
informazioni necessarie per costruire mappe che permettano
non solo di pianificare i percorsi, ma di evitare ostacoli e
muoversi in sicurezza nelle strade percorse da altri veicoli e da
pedoni. È un settore destinato a un rapido sviluppo,
considerando il forte interesse da parte di importanti aziende,
automobilistiche e non.
Come è accaduto per i robot umanoidi, anche le autorobot
sono state sognate e immaginate a lungo, tanto che i primi
esperimenti per costruirle risalgono agli anni Venti. È stata una
lunga strada, ma non troppo, perché la prima automobile
autonoma è stata realizzata negli anni Ottanta dal laboratorio
NavLab dell’americana Carnegie Mellon University. Nello
stesso periodo sono partiti i progetti di aziende
automobilistiche, come la Mercedes-Benz, di università come
la tedesca Bundeswehr e nel 1987 è stato varato il progetto di
ricerca europeo Prometheus nell’ambito del programma
Eureka. Da allora lo sviluppo di veicoli autonomi è diventato
un obiettivo di altri centri di ricerca, come quelli delle
università di Oxford e di Parma, e di centri di ricerca, come
General Motors, Continental Automotive Systems, IAV,
Autoliv Inc., Bosch, Nissan, Renault, Toyota, Audi, Volvo,
Peugeot, Ford, AKKA Technologies, Tesla, Google e Apple.
Uno dei primi veicoli autonomi è stato BRAiVE, realizzato nel
2013 dal VisLab e il primo test su strada è avvenuto negli Stati
Uniti nel 2015.
Capitolo 8

DRONI, SCIAMI E ROBONAUTI

Nel 2015 in Svizzera il Canton Berna ha deciso di sperimentare dei postini


molto particolari: i droni. Questi robot volanti sono stati individuati come
una possibilità concreta per recapitare pacchi in zone impervie, per esempio
per consegnare farmaci in paesi di montagna difficilmente raggiungibili con
i normali mezzi di trasporto, o in caso di maltempo. Il test nato dalla
collaborazione tra la divisione cargo delle linee aeree svizzere, la Swiss
World Cargo, e l’azienda californiana Matternet, produttrice di droni, ha
dimostrato che i tempi non erano ancora maturi: prima di poter utilizzare i
droni nei servizi postali sarebbe stato necessario aumentare la durata delle
batterie e risolvere alcuni problemi legali, il che avrebbe richiesto ancora
un’attesa di cinque anni. Conclusioni analoghe da parte delle poste
finlandesi, che hanno sperimentato i droni per consegnare pacchi da
Helsinki all’arcipelago di Suomenlinna, constatando che i pacchi non erano
stati recapitati agli indirizzi precisi.
Fuori dall’Europa ha seguito l’esempio Singapore, dove il servizio
postale ha affidato a un drone una maglietta da consegnare alla distanza di
due chilometri. Il primo a lanciare l’idea di utilizzare i droni come fattorini
è stato comunque il capo di Amazon, Jeff Bezos, che nel 2013 aveva
annunciato l’intenzione di utilizzare droni per consegnare le merci.
Vale la pena di gettare uno sguardo su questi robot volanti perché prima
o poi capiterà di incontrare anche loro nella vita quotidiana. Fin da ora
possiamo immaginare droni che consegnano pacchi urgenti ai robot di
condominio, che poi li recapitano nelle case. Non è un volo della fantasia,
ma uno scenario suggerito dagli impieghi sempre più numerosi degli APR,
ovvero gli Aeromobili a Pilotaggio Remoto (in inglese UAV, Unmanned
Aerial Vehicles). All’inizio sono stati utilizzati essenzialmente in ambito
militare, così come è accaduto per i robot di tipo tradizionale. Ancora nel
2014, secondo i dati della Federazione Internazionale di Robotica, le
macchine intelligenti utilizzate per applicazioni di difesa erano il 45% di
tutti i robot di servizio per uso professionale venduti in quell’anno, pari a
11.000 unità. Di queste, oltre 9000 erano droni.
Rapidamente, però, si sono comprese le grandi potenzialità che queste
macchine hanno nell’ambito civile, tanto che già nel 2010 la Commissione
Europea aveva lanciato il progetto di ricerca AIRobots (Innovative Aerial
Service Robots for Remote Inspections by contact) con l’obiettivo di
mettere a punto “veicoli aerei in grado di interagire con l’ambiente umano”.
Si pensava di equipaggiare minielicotteri a quattro eliche, i
quadricotteri, con bracci meccanici e mani intelligenti in modo da poterli
utilizzare per svolgere compiti rischiosi per l’uomo, come la manutenzione
dei cavi dell’alta tensione, l’ispezione di oleodotti e di impianti per la
produzione di energia oppure, in casi di incendio, per individuare e
segnalare la presenza di persone in pericolo all’interno degli edifici in
fiamme. Non si pensava a macchine autonome perché i velivoli dovevano
essere controllati da un operatore a terra per mezzo di un joystick, guanti e
occhiali elettronici: grazie a questo equipaggiamento i droni sarebbero
diventati autentiche mani volanti per aiutare l’uomo.
Ricerche sui droni avveniristiche come questa hanno suggerito molto
spesso il confronto con gli albori dell’aviazione: il 17 dicembre 1903,
quando i fratelli Wright affrontarono il primo volo della storia con una
macchina più pesante dell’aria, nessuno avrebbe immaginato che gli aerei
sarebbero diventati i mezzi di trasporto che conosciamo oggi, e non si può
escludere che i robot volanti possano avere un futuro altrettanto
entusiasmante.
Nella parola “drone” sono racchiusi già moltissimi significati e
altrettante potenzialità: al di là degli usi militari, queste macchine hanno
esordito come fantastici giocattoli per tutte le età, vengono venduti in tutto
il mondo e adesso promettono di diventare nuovi strumenti di lavoro per
l’industria, l’agricoltura, la tutela dell’ambiente, il soccorso e la
sorveglianza; è facile pensare applicazioni di questi robot al servizio delle
forze dell’ordine o della protezione civile e sono stati sperimentati perfino
droni archeologi e altri ancora specializzati nelle riprese video per
telegiornali e siti web, come reporter robotici. Non ci sono più dubbi che,
proprio come è accaduto per i telefonini, i droni si preparano a lasciare i
loro incarichi di nicchia per entrare nella vita quotidiana. Facendo volare la
fantasia (e neanche troppo), si possono immaginare droni specializzati nel
sorvegliare le case, che periodicamente fanno un giro d’ispezione e inviano
un allarme se vedono movimenti sospetti, oppure droni con bracci
meccanici che cambiano le lampadine dei lampioni.
Guardando ancora più in là nel futuro, vediamo all’orizzonte un altro
tipo di robot volanti, abbastanza piccoli da imitare insetti e che agiscono in
formazione, come fossero un unico organismo: sono gli sciami robotici che
nel 2002 hanno ispirato il romanzo Preda, di Michael Crichton. La storia
era fantascientifica, ma l’esperimento che l’aveva suggerita era
assolutamente concreto ed era stato condotto da Dario Floreano, che oggi
dirige il Laboratorio di sistemi intelligenti del Politecnico di Losanna. I
ricercatori avevano progettato piccoli robot che si comportavano come
prede e altri che erano i predatori: l’obiettivo della preda era sfuggire al
predatore, mentre il predatore puntava naturalmente a catturare la sua preda.
L’aspetto interessante e straordinario era che queste macchine imparavano
dall’esperienza, evolvendosi mettendo in atto strategie di comportamento
sempre più complesse: via via i predatori erano sempre più astuti e
aggressivi e le prede, dal canto loro, escogitavano strategie di fuga e difesa
sempre più ingegnose.
Anche queste macchine sono droni e per i ricercatori rappresentano una
delle sfide più interessanti della robotica perché devono essere piccoli e
leggeri ma possedere a bordo tutti i sistemi necessari per avere energia,
capacità di calcolo e sensori. È un settore di ricerca che si intreccia con
quello della robotica soft e anche in questo caso la fonte di ispirazione sono
gli esseri viventi, in particolare gli insetti, tanto che biologi, zoologi e
ingegneri lavorano a stretto contatto. Uno dei risultati di queste ricerche è
stato l’arrivo dei droni biomimetici.
Tra i primi modelli ci sono stati gli sugar-robot, piccoli come zollette di
zucchero e capaci di cooperare come le formiche di una colonia e, come le
formiche, erano in grado di coordinarsi all’unisono, a tal punto da
comportarsi come un unico organismo per raggiungere uno scopo. Sono
state costruite anche sferette dal diametro di dieci centimetri, con un anello
trasparente in grado di cambiare colore e di illuminarsi in modo
intermittente e due pinze che permettono alle sfere di agganciarsi tra loro in
modo da formare un unico organismo. I primi mini-robot volanti erano
invece cubi trasparenti pieni di elio e con due eliche.
Nell’arco di circa 15 anni la ricerca sui robot-insetto che volano in
sciami ha fatto molti passi in avanti, tanto che si comincia a preparare il
terreno per le possibili applicazioni. In vista di questo obiettivo, uno dei
primi problemi da risolvere è che questi piccoli droni che volano in gruppo
come fossero sciami finiscono per scontrarsi: per questo i ricercatori sono al
lavoro per dare loro occhi e orecchie. Prima di tutto si è pensato agli occhi:
anche questi, naturalmente, simili a quelli degli insetti. I primi sono stati
realizzati nel 2013, sempre nel laboratorio di Floreano, ed erano composti
da minuscole fotocamere, ognuna delle dimensioni di un millimetro e
pesante meno di un milligrammo, disposte su una superficie completamente
flessibile: tutte insieme riuscivano a percepire un movimento in qualsiasi
condizione di illuminazione, quindi giorno e notte, raccogliendo fino a 1500
immagini al secondo. Vale a dire che un occhio del genere riproduce in tutto
e per tutto non solo la struttura fisica dell’occhio degli insetti, ma anche la
sua funzione.
Per dare ai droni anche l’udito, rendendoli ancora più efficienti nel
coordinarsi in volo e di conseguenza più sicuri, i ricercatori hanno pensato a
un piccolo trucco: spegnere il motore di uno di essi per pochi istanti mentre
tre microfoni direzionali si mettono in ascolto per rilevare la presenza di
altre macchine volanti e per capire in quale direzione si stanno muovendo.
Si studiano poi sistemi per controllare il movimento degli sciami,
magari utilizzando un tablet. Li hanno sperimentati i ricercatori del Georgia
Institute of Technology, considerando che è impossibile controllare decine,
centinaia o migliaia di robot programmandoli uno a uno. Così il gruppo di
ricerca di Magnus Egerstedt ha elaborato un algoritmo che permette di
controllare gli spostamenti dei mini-droni illuminando il suolo in
corrispondenza del punto in cui le macchine devono lavorare: quando si
trova in una zona molto illuminata, ogni robot si sposta per lasciare spazio
ai colleghi, in modo che ciascuno abbia la stessa quantità di luce nella
propria area.
Agire in modo collettivo, come un’unica intelligenza e un solo
organismo è anche il compito dei piccoli robot, delle dimensioni di una
monetina, ai quali l’università di Harvard ha cominciato a lavorare intorno
al 2010. I ricercatori, coordinati da Radhika Nagpal, li hanno chiamati
Kilobot e li hanno presentati per la prima volta nel 2012 nella African
Robotics Network $10 Robot Design Challenge, la gara volta a sviluppare
robot a basso costo da utilizzare nelle scuole e per l’educazione in generale,
e si sono aggiudicati il primo posto. A garantire i bassi costi dei Kilobot
contribuisce il fatto che hardware e software sono liberamente accessibili.
A rendere famosi questi sciami di robot è stato l’esperimento condotto
nel 2014, nel quale migliaia di minuscole macchine si sono auto-
organizzate, assemblandosi fino a formare un unico grande organismo dalla
forma ben definita: quella di una stella marina. I piccoli robot hanno anche
lasciato la loro firma, assemblandosi nella K di Kilobot. È stato un esempio
eloquente di quella che i ricercatori chiamano “intelligenza artificiale
collettiva” e non si fatica a credere che sia stato citato dalle riviste Science e
Nature fra i dieci risultati scientifici di spicco dell’anno.

Figura 8.1 – Lo sciame di robot Kilobot, dell’università di Harvard (fonte: Asus creative).

Alla robotica collettiva si lavora anche nella Scuola universitaria


professionale della Svizzera italiana (Supsi), dove nel 2015 sono stati messi
a punto sciami di piccoli robot molto diversi tra loro, autonomi ma capaci di
collaborare a uno scopo comune, ognuno con competenze diverse. Per
esempio, se l’obiettivo è trovare un oggetto, il primo a partire è una sorta di
occhio volante che dopo aver individuato l’oggetto avverte i robot-mano,
che si danno da fare per afferrarlo, se necessario arrampicandosi, e una
volta che lo hanno preso lo affidano ai robot-piede, che sono specializzati
nel muoversi velocemente.
Come dicevamo, questi sono i primi passi in vista delle possibili
applicazioni, che potrebbero essere davvero numerose. In futuro sciami di
robot volanti potrebbero aiutare nei soccorsi in situazioni di emergenza,
cercando persone disperse nella neve o nelle foreste; equipaggiati con
emittenti e riceventi, in caso di necessità potrebbero anche diventare un
supporto importante per le comunicazioni tra più gruppi di soccorritori;
sciami di robot potranno aiutare gli agricoltori a ispezionare il raccolto,
mentre nelle fabbriche potranno aiutare a recuperare i materiali nei
magazzini e, magari, fare le pulizie di casa.
Una delle applicazioni più affascinanti degli sciami di robot è
l’esplorazione spaziale: si cominciano a immaginare sciami di robot inviati
a bordo di navette attraverso il Sistema Solare per studiare il suolo di
pianeti, lune e asteroidi, magari per raccogliere materiali preziosi. Non è
affatto una fantasia, anzi: per il gruppo di ricerca dell’università belga di
Lovanio guidato da Eliseo Ferrante è un progetto molto concreto, anche se
per la sua realizzazione bisognerà aspettare.
L’obiettivo è costruire robot completamente autonomi applicando al
loro comportamento leggi analoghe a quelle della selezione naturale, in
base a cui le macchine sono riuscite a organizzarsi in gruppi e a
suddividersi i compiti in modo autonomo, in un ambiente sconosciuto agli
ingegneri che le avevano progettate, proprio come potrebbe accadere nel
caso dell’esplorazione di un pianeta. Ancora una volta sono stati gli insetti a
ispirare questa ricerca e il modello per eccellenza sono diventate le
formiche del genere Atta, tanto organizzate da coltivare nei loro nidi il
micelio del fungo di cui si nutrono, ognuna con un particolare compito da
assolvere. I robot sono stati programmati in modo analogo e ciascuno ha
cominciato a organizzare il lavoro in sotto-attività.
Sciami, o meglio squadre specializzate di robot, potrebbero fare da
apripista per le missioni che fra il 2030 e il 2040 puntano a far camminare il
primo uomo su Marte. Lo stesso amministratore capo della NASA, Charles
Bolden, ha pensato alla possibilità di inviare sul pianeta robot architetti
capaci di ricostruire un habitat adatto alla sopravvivenza di una colonia
umana. Fra i quindici progetti selezionati dal programma della NASA
specializzato nell’innovazione, il NIAC (Nasa Innovative Advanced
Concepts), sono molti quelli che scelgono di affidare l’esplorazione spaziale
alle macchine. Tra queste, alcune fanno davvero volare la fantasia, ma
d’altro canto l’obiettivo di questo programma è proprio trasformare concetti
al limite della fantascienza in tecnologie reali e pionieristiche. Così sono
arrivati all’esame dei progettisti dell’agenzia spaziale americana robot-
calamari dal guscio soffice e flessibile che potrebbero essere utilizzati per
nuotare negli oceani nascosti nel sottosuolo di mondi lontani, insieme a
nanosensori per scoprire i segreti di asteroidi e comete e a squadre di robot
esploratori specializzati nel perlustrare pianeti alieni in cerca di acqua e
altre risorse preziose.
L’Agenzia Spaziale Europea (ESA) è altrettanto proiettata nel futuro e
anche in questo caso si tratta di idee concrete e fattibili tecnicamente, che
guardano a scenari da fantascienza ma con i piedi per terra. Anzi, con le
radici ben piantate nel terreno. Le piante robot progettate all’Istituto Italiano
di Tecnologia (IIT) da Barbara Mazzolai, che abbiamo già incontrato,
potrebbero un giorno attecchire su Marte per colonizzarlo. È uno degli
obiettivi della collaborazione fra IIT ed ESA e l’idea consiste grossomodo
nel realizzare un robotpianta capace di ancorarsi al suolo per poi cominciare
a esplorare l’ambiente utilizzando i suoi sensori.
Dal LASA (Learning Algorithms and Systems Laboratory) del
Politecnico di Losanna è stato invece progettato un braccio robotico
corredato da una mano con quattro dita, con un’elasticità così naturale da
afferrare un oggetto al volo e che potrebbe essere utilizzata per fare un po’
di pulizia in orbita eliminando i detriti spaziali, almeno i più pericolosi. Per
collaudarlo i ricercatori, guidati da Aude Billard, hanno lanciato
ripetutamente al robot una racchetta da tennis, una palla, un martello, una
bottiglia vuota e una bottiglia semivuota e ogni volta il robot ha imparato
qualcosa in più, finché non è riuscito ad afferrare a colpo sicuro tutti gli
oggetti.
Se progetti come questi sono all’inizio, altri robot sono già al lavoro
nello spazio. Le sonde lanciate all’esplorazione del Sistema Solare e i
veicoli che hanno rilasciato sul suolo di altri mondi possono essere
considerati dei robot, come la sonda europea Huygens, che nel 2005 ha
attraversato l’atmosfera della più grande luna di Saturno, oppure il piccolo
lander Philae, il primo veicolo costruito dall’uomo a toccare la superficie di
un fossile del Sistema Solare come una cometa; sono robot a tutti gli effetti
anche i rover che hanno esplorato il suolo marziano in questi anni e quelli
che lo stanno ancora esplorando. Dalla Stazione Spaziale Internazionale si
dialoga con i robot e da lassù l’astronauta europeo Andreas Mogensen ha
manovrato con precisione submillimetrica un robot sulla Terra, in un
esperimento di importanza fondamentale per validare i nuovi sistemi di
controllo che si prevede di utilizzare nei robot destinati alle future
esplorazioni spaziali.
E i robot umanoidi? Niente paura, accanto a sciami, bracci e rover ci
sono anche loro. Il capostipite si chiama Robonaut ed è in servizio dal 2011
sulla Stazione Spaziale. Pesante tre quintali e alto circa un metro dalla vita
in su, R2 non ha gambe: non ne ha bisogno perché è stato progettato per
lavorare in assenza di peso. Ha invece mani straordinarie, con dita flessibili
capaci di stringere con delicatezza la mano di un uomo come di afferrare
saldamente oggetti pesanti e massicci. Le sue dita sanno schiacciare tasti e
piegarsi come fanno quelle umane, regolando la forza necessaria, tanto che
è in grado di afferrare oggetti sottili come un foglio di carta. Torso e braccia
sono bianchi, quasi a ricordare la tuta che indossano gli astronauti nelle
passeggiate spaziali, e sono realizzati con un materiale spesso ed elastico.
Sul torace ci sono i nomi dei suoi costruttori, ossia la NASA e la General
Motors, e il distintivo della missione Expedition 26, che l’ha accolto a
bordo. La testa è un casco dorato con una specie di schermo dietro al quale
si nascondono i suoi occhi, due telecamere che gli danno una visione stereo,
simile a quella umana, mentre la bocca è una camera a infrarossi che lo
aiuta a percepire le distanze. Per queste caratteristiche e per gli oltre 350
sensori di cui è disseminato, R2 gira la testa se qualcuno si avvicina ed è
capace di movimenti fluidi. “Pensa con lo stomaco”, come hanno detto i
tecnici che lo hanno realizzato, perché nel tronco è concentrata la maggior
parte dei sensori. Ma la cosa più importante è che R2 è capace di imparare
ed evolversi. La sua presenza sulla Stazione Spaziale è ancora a livello
sperimentale, ma è possibile immaginare un domani nel quale sarà normale
che gli astronauti siano affiancati da robonauti che li aiutino nel lavoro
quotidiano a bordo o nelle passeggiate spaziali.
Figura 8.2 – Robonaut, progettato per lavorare con gli astronauti (fonte: NASA).

E mentre Robonaut continua a studiare e a imparare cose nuove nello


spazio, sulla Terra si lavora per perfezionare Valkyrie, considerato dalla
NASA “uno dei robot umanoidi più avanzati nel mondo”. Alto 1 metro e 80
centimetri e pesante 125 chilogrammi, Valkyrie ha un aspetto più massiccio
rispetto a Robonaut e, a differenza del suo collega in orbita, ha le gambe. Il
suo corpo è bianco, ravvivato da sottili decorazioni dorate e dalle spalline
con la bandiera americana; anche la testa è bianca, con curiose orecchie,
dorate anche queste, e un piccolo schermo rettangolare al posto degli occhi.
Potrebbe essere un robot come questo, un domani, a camminare su Marte.

Biomimetismo e Bionica
Biomimetismo: (dai temini greci “bios”, vita, e “mimesis”,
imitazione) è il campo di ricerca che tende a realizzare
macchine o meccanismi prendendo come modello gli esseri
viventi e le strutture con le quali si adattano all’ambiente. Gli
organismi viventi possono essere imitati realizzando macchine
di tutte le dimensioni, come pure riproducendo alcuni loro
comportamenti, per esempio nel caso delle colonie di insetti,
perenne fonte di ispirazione per alcuni settori della robotica.
Uno dei più antichi e celebri esempi di biomimetismo è stata la
macchina volante di Leonardo da Vinci, ispirata al volo degli
uccelli e basata sullo studio dettagliato della loro anatomia e
della dinamica dei loro movimenti. A coniare il termine è stato
intorno al 1950 il biofisico americano Otto Schmitt che,
ispirandosi al calamaro, aveva messo a punto un dispositivo
che riproduceva l’organizzazione del suo sistema nervoso.
Bionica: il termine è stato coniato nel 1958, quando ancora
aveva sapore di fantascienza, dal medico militare Jack E. Steele
e sta a indicare la scienza dei sistemi le cui funzioni sono
copiate dalla natura, o che rappresentano e replicano alcune
caratteristiche dei sistemi naturali. Le ricerche di Steele hanno
ispirato il romanzo Cyborg, di Martín Caidín, dal quale negli
anni Settanta sono state tratte le serie televisive americane The
Six Million Dollar Man e The Bionic Woman che hanno reso
popolare il termine “bionica”.
Capitolo 9

ROBOT IN RETE

Ancora una volta ritroviamo il piccolo Nao. L’esperienza della banca è stata
molto positiva, ma alla fine è tornato alla sua prima passione: lavorare nella
reception di un hotel; questa volta non è in Giappone accanto a colleghi
androidi e dinosauri, ma collabora con esseri umani e può farlo perché c’è
una novità: non è più da solo. Tutte le macchine che abbiamo incontrato
finora dietro il banco informazioni di un hotel o di una grande azienda,
comprese le più evolute e quelle capaci di imparare, avevano un bagaglio di
informazioni abbastanza limitato. Nao, che per l’occasione ha cambiato
nome diventando Connie, sa invece dare moltissime informazioni agli ospiti
che, curiosi, gli pongono una domanda dopo l’altra sui luoghi da visitare in
città. Come mai? Può farlo perché è collegato a Watson, il supercomputer
della IBM.
“Watson aiuta Connie a comprendere le richieste degli ospiti e a
rispondere in modo naturale”, ha osservato il vicepresidente dell’ufficio
tecnologico della IBM, Rob High. Oltre a informazioni e dati, il
supercomputer fornisce al robot gli elementi per comprendere il linguaggio
naturale e lo aiuta a imparare molto rapidamente. Per ora questo è solo un
esperimento, condotto in uno degli hotel Hilton negli Stati Uniti, ma indica
la direzione nella quale si andrà: dopo telefoni e computer, sarà la volta dei
robot a essere collegati in rete.
Figura 9.1 – Il supercomputer Watson, al quale è stato collegato Nao (fonte: Clockready).

Le prime macchine a sperimentare la connessione in rete non sono stati


robot umanoidi come Nao, ma i grandi robot industriali utilizzati da
un’azienda pionieristica come la Kuka Robotics, la stessa che negli anni
Settanta aveva dato un contributo notevole alla costruzione delle prime
macchine intelligenti destinate alle fabbriche.
A distanza di oltre 40 anni è stata ancora la stessa azienda a precorrere i
tempi, attraverso la sua sussidiaria Kuka Toledo Production Operations
(KTPO). Nell’Ohio, a Toledo, nel 2006 è entrato in attività il primo
stabilimento nel quale 245 robot collegati in rete hanno cominciato a
scambiarsi dati e informazioni per produrre la scocca della Jeep Wrangler.
Dei 245 robot, 68 sono utilizzati per afferrare e spostare i materiali, 166
sono specializzati nelle saldature e 11 nelle operazioni di graffatura. Tutti
sono collegati fra loro grazie a un sistema realizzato dalla Microsoft: i robot
sono connessi a 33 punti di controllo, a loro volta gestiti da un programma
supervisore. Ognuno dei 33 punti è inoltre connesso a 1444 nodi in grado di
dialogare con i circa 60.000 strumenti della fabbrica, come i saldatori.
Grazie a questa organizzazione, lavorando in turni di nove ore, le macchine
hanno raggiunto un ritmo di produzione di 35 scocche l’ora, pari a 150.000
in un anno.
È stato uno dei primi esempi di come la fabbrica sia diventata il primo
terreno per la realizzazione della cosiddetta “Internet delle cose”, gettando
le basi per una nuova realtà nella quale tutti i robot potranno essere connessi
alla rete e fra loro.

Figura 9.2 – Robot collegati in rete nella fabbrica della Kuka (fonte: Kuka Systems GmbH).

È stata anche la prima realizzazione dello scenario del quale si era


cominciato a parlare nei primi anni 2000, con la nascita del Comitato
Tecnico su Internet e i Robot online, fondato nel 2001 da Ken Goldberg,
dell’università della California a Berkeley, e Roland Siegwart, del
Politecnico di Losanna. Il Comitato era stato fondato nell’ambito della
IEEE-RAS, la Società per l’Automazione e la Robotica che fa capo alla
maggiore associazione internazionale per la promozione delle scienze
tecnologiche, la IEEE (Institute of Electrical and Electronic Engineers).
All’epoca si discuteva soprattutto del controllo dei robot e se sarebbe stato
possibile esercitarlo in qualche forma nel momento in cui tutti sarebbero
stati collegati in rete, ma con il tempo è emerso anche un secondo aspetto
del problema: i robot connessi a Internet avrebbero trovato nel cloud, ossia
nella nube informatica, una grandissima quantità di dati e informazioni per
imparare cose nuove e scambiarsi fra loro nuove conoscenze. Uno dei primi
ricercatori a parlare di robot e cloud è stato nel 2010 James J. Kuffner,
all’epoca docente di Robotica nella Carnegie Mellon University di
Pittsburgh e poi passato a Google: intervenendo nel congresso della IEEE-
RAS sulla Robotica umanoide presentò

un nuovo approccio alla robotica che sfrutta Internet come risorsa


per massimizzare le capacità di calcolo e condividere grandi
quantità di informazioni.

In quello stesso anno partivano da Google le prime iniziative volte a


collegare dei robot alla rete. Nel giro di pochissimo tempo è diventato
sempre più chiaro che il cloud avrebbe offerto alla robotica delle
opportunità straordinarie e la ricerca ha cominciato a preparare il terreno
per rendere possibile questa nuova evoluzione, predisponendo gli strumenti
che l’avrebbero resa una via percorribile.
Il primo passo è stato così creare una World Wide Web per i robot. A
gettarne le basi è stato il progetto RoboEarth, promosso nell’ambito del
Settimo Programma Quadro della Commissione Europea e attivo dal
dicembre 2010 al gennaio 2014. Al suo coordinatore, Markus Waibel, era
molto chiaro che si trattava di realizzare un lavoro enorme, a partire da
zero: “I robot di oggi – diceva – non usano Internet, ogni robot è un’isola”.
La scommessa era gettare le basi per collegare i robot a Internet e
realizzare in questo modo la robotica cloud. Si trattava di ripetere, per i
robot, quanto anni prima era accaduto con i personal computer quando si
erano connessi a Internet e avevano avuto accesso a una quantità di
informazioni e dati senza precedenti. Il primo passo è stato quindi creare
un’infrastruttura nella quale immagazzinare conoscenze generate dagli
esseri umani e conoscenze acquisite dai robot, come software, programmi
di navigazione per localizzare oggetti, istruzioni per eseguire delle azioni
precise. Accedendo a questa piattaforma i robot avrebbero potuto trovare
tutte le informazioni necessarie per orientarsi nel mondo degli esseri umani
e conoscerlo, per capire come comportarsi al suo interno e prepararsi a
eseguire i compiti richiesti nel modo più efficiente.
A fornire i contenuti è stato il progetto Raptuya, realizzato dal
Politecnico di Zurigo. Il nome si riferiva a Laputa, l’isola volante descritta
nel romanzo di Jonathan Swift, popolata da appassionati di matematica,
astronomia e tecnologia, che aveva ispirato anche l’isola volante di un film
di animazione giapponese. In quell’isola della conoscenza su Internet i
robot non sarebbero stati più soli a risolvere i problemi che avrebbero
incontrato nel loro lavoro: avrebbero potuto scaricare informazioni utili e
nello stesso tempo mettere a disposizione dei loro simili ciò che avevano
imparato; in questa banca dati avrebbero trovato la soluzione ai calcoli
necessari per compiere delle operazioni, come il modo corretto per
attraversare una stanza senza fare danni, per piegare una camicia o ancora
per comprendere il linguaggio umano.
Un’altra estensione di RoboEarth è stato KnowRob, il sistema di analisi
dei dati progettato per consentire ai robot di integrare in un unico quadro
conoscenze di tipo diverso. Elaborato dal Politecnico di Monaco e
dall’Istituto per l’intelligenza artificiale di Brema, intendeva fornire ai robot
gli strumenti necessari per acquisire le conoscenze dalla rete, per
rappresentarle e per elaborarle in modo personalizzato, a seconda delle
esigenze di ciascuna macchina.
A questo punto era necessario un motore di ricerca: il Google dei robot
è arrivato con il progetto Robo Brain. Il suo biglietto da visita era un logo
spiritoso, un cervello stilizzato con al centro una faccia simile a quella di un
robot, quadrata con due grandi occhi rotondi, e si presentava così:

Imparo cercando su Internet, posso interpretare testi, immagini e


video. Guardo gli esseri umani con i miei sensori e imparo nuove
cose interagendo con loro.

Nato per iniziativa di un gruppo di università americane coordinate


dalla Cornell di New York e da quella californiana di Stanford, con la
partecipazione di grandi aziende come Google e Microsoft, Robo Brain si
era messo subito alla prova scaricando dalla rete circa un miliardo di
immagini, 120.000 video di YouTube e 100 milioni di manuali, traducendo
ogni cosa in un linguaggio accessibile ai robot.

I nostri computer e i telefonini ci danno accesso a tutte le


informazioni che vogliamo e, allo stesso modo, se in futuro un robot
si imbatterà in una situazione che non conosce, potrà chiedere aiuto
a Robo Brain,
aveva detto il coordinatore del progetto, Ashutosh Saxena. Alla luce di
questo obiettivo, i ricercatori hanno lavorato in modo che i robot possano
sapere tutto sul mondo degli umani, a partire dalle informazioni più
semplici, come trovare un mazzo di chiavi, servire una bevanda,
sparecchiare o usare un forno a microonde. Per fare un esempio,
immaginiamo un robot che per la prima volta vede una tazzina di caffè: non
ha la più pallida idea di che cosa sia, ma consultando Robo Brain potrebbe
imparare molto rapidamente che la tazzina è un contenitore nel quale si può
versare un liquido o dal quale si può rovesciare un liquido all’esterno, che
può essere afferrata con le mani e trasportata tenendo l’apertura verso l’alto
quando è piena. Tra le informazioni utili a disposizione su Robo Brain, i
ricercatori non hanno voluto trascurare quelle relative alle buone maniere,
come non interrompere una conversazione fra due persone.
La cassetta degli attrezzi per i robot che imparano nel cloud è arrivata
con Ros (Robot Operating System), completa di tutto il necessario per
realizzare le app necessarie ai robot per imparare a fare nuove cose,
liberamente accessibile e basata su un sistema operativo diffusissimo come
Android, progettato per smartphone e tablet.
Tutto era pronto perché i robot potessero avere i loro social media.
Quello che potremmo definire il loro Facebook è nato nel 2011, si tratta di
MyRobots: un servizio che permetteva ai robot e a tutte le macchine
intelligenti di collaborare e condividere i dati registrati dai loro sensori e le
informazioni relative al loro stato, rendendoli sempre più efficienti e nello
stesso tempo permettendo di controllarli a distanza. L’obiettivo dichiarato
era fare della robotica cloud “una realtà accessibile a chiunque e a ogni
cosa”.
A questo filone di ricerche appartiene anche un progetto molto più
mirato, teso a mettere in rete i dispositivi robotici al servizio delle persone
disabili, dai robot badanti alle sedie a rotelle intelligenti: tutti i dispositivi
per l’assistenza sono uniti nel cloud in modo da potenziarne al massimo
l’efficienza. Chiamato Coalas (Cognitive Assisted Living Ambient System),
è stato condotto dal 2012 al 2015 da un gruppo di ricerca europeo guidato
da Francia e Gran Bretagna.
Il terreno perché la robotica cloud possa tradursi in realtà è stato
preparato. L’industria, come sempre, ha anticipato i tempi mettendo per
prima i robot in rete. Adesso è la volta dei robot umanoidi e di tutte le altre
macchine progettate per interagire con l’uomo: connettendosi alla rete
ciascuno di essi diventerà un elemento dell’Internet delle cose. Il mondo
della ricerca ha cominciato a organizzarsi, considerando l’idea di collegare
fra loro i robot utilizzati nei laboratori di tutto il mondo. Tutto questo sta
richiedendo uno sforzo notevole, che in pochi anni ha portato a sviluppare
una nuova disciplina chiamata ICTR (Information and Communications
Technology and Robotics), che consiste nell’applicare alla robotica le
tecnologie dell’informazione e della comunicazione. Si lavora perché
possano essere gli stessi robot a scambiarsi dati e programmi utilizzando
una tecnologia semplice grazie alla quale le macchine potranno essere
connesse con il cloud attraverso la rete wireless e scambiarsi informazioni.
In sostanza possiamo immaginare i robot come macchine di per sé non
particolarmente intelligenti che però possono essere collegate a uno
straordinario cervello remoto: la loro intelligenza non è localizzata nel loro
corpo ma è esterna, sempre accessibile nella nube informatica ogni volta
che è necessario. Grazie al cloud ogni robot può imparare nuove cose e
condividere le sue esperienze. E tutto ciò che di nuovo apprende viene
archiviato nel cloud, a disposizione di tutte le altre macchine.
Il futuro è questo anche secondo uno degli esperti che hanno seguito più
da vicino gli sviluppi della robotica, Gill Pratt, che è stato uno dei registi
della principale gara internazionale di robotica, la Darpa Robotics
Challenge. Lo ha descritto così in un’intervista rilasciata nel 2015 a un
importante quotidiano britannico:

La prossima cosa che sta per accadere è la robotica nel cloud: è il


luogo in cui quando un robot impara qualcosa, la imparano anche
tutti gli altri.

Immaginando un gruppo di robot domestici, che si prendono cura della


pulizia della casa,

quando ogni macchina si mette al lavoro, può succedere che una di


esse incontri un oggetto che non conosce e che lo cerchi nel cloud,
attraverso Internet, dicendo: “Qualcuno sa che cos’è?” Ammettiamo
che nessuno risponda. Allora il robot si metterà in comunicazione
con una persona, che gli risponderà: “È l’ampolla per l’olio e il suo
posto è accanto all’ampolla dell’aceto, nella credenza”. A quel
punto il robot dirà: “Ho capito!” e da quel momento lo saprà anche
ogni altro robot.

È un futuro affascinante quello che si prepara, secondo Pratt è “la


realizzazione di un sogno straordinario”.
Le applicazioni possibili sono così numerose che è davvero molto
difficile immaginarle, ma si può facilmente pensare che i robot domestici e
le auto a guida autonoma funzioneranno proprio così, aprendo una nuova
pagina nella storia della robotica. E come tutte le cose nuove, bisognerà fare
i conti con i nuovi problemi che potranno portare con sé, primo fra tutti
quello della privacy.
È prevedibile che nel cloud finiscano dati personali dei proprietari dei
robot, che potrebbero essere esposti a possibili intrusioni da parte di hacker
o diventare l’obiettivo degli attacchi lanciati da programmi pericolosi
specializzati nell’impadronirsi di dati sensibili. È facile immaginare i rischi
per la sicurezza, se tra le informazioni condivise ci sono quelle che
descrivono la disposizione della casa, oppure le foto della casa stessa, degli
oggetti che contiene e delle persone che la abitano. Informazioni come
queste potrebbero essere condivise da organizzazioni criminali, che
potrebbero anche assumere il controllo remoto di un robot.
Sarà necessario trovare un equilibrio tra l’esigenza di garantire
sicurezza e privacy e la necessità di mantenere i robot connessi nel cloud e
controllabili. Ha osservato Paolo Dario, della Scuola Superiore Sant’Anna:

È possibile che persone anziane e non in buona salute preferiscano


essere controllate perché in questo modo si sentono rassicurate. È
verosimile che l’arrivo dei robot nelle case possa essere
accompagnato da una sorta di supervisione, una struttura simile a
quella dei controllori di volo negli aeroporti: sappiamo che ogni
aereo ha il suo pilota, ma i controllori di volo sanno dove si trova e,
quando è necessario, possono intervenire e dare consigli. Sta già
accadendo qualcosa di analogo per le automobili che si guidano da
sole: le loro condizioni sono costantemente seguite dai produttori,
che possono suggerire interventi di manutenzione e segnalare
eventuali rischi di guasto, magari indicando il centro di assistenza
più vicino. Probabilmente sarà così anche per la robotica.

Una sorta di servizio di supervisione dei robot potrebbe rendere più


facile la vita di chi li utilizza, a partire dalle operazioni di manutenzione:

Si potrebbe immaginare che ogni Comune possa avere un centro di


supervisione, simile a quello che oggi regola autobus e
metropolitane e che il supervisore dei robot possa diventare un
nuovo lavoro.

Privacy e sicurezza non sono gli unici problemi posti dalla robotica nel
cloud: ci si domanda, per esempio, chi dovrà rispondere del comportamento
di un robot finito fuori controllo e che improvvisamente comincia a
comportarsi in modo disonesto. Bisognerà capire fino a che punto varranno
le famose leggi della robotica, che abbiamo già incontrato, e secondo le
quali un robot non dovrebbe mai fare del male a un essere umano, ma la
riflessione potrebbe portarci oltre, nel dominio della roboetica, la disciplina
che indaga sulla responsabilità dell’uomo nel costruire macchine intelligenti
e sull’etica che gli uomini dovrebbero avere quando interagiscono con le
macchine. A chiamare così questa disciplina, nel 2002, è stato Gianmarco
Veruggio, responsabile della sezione di Genova dell’Istituto di elettronica e
di ingegneria del Consiglio nazionale delle ricerche (IEIIT-CNR),
definendola come un’etica applicata, volta a

sviluppare strumenti scientifici, culturali e tecnici che siano


universalmente condivisi, indipendentemente dalle differenze
culturali, sociali e religiose. Questi strumenti potranno promuovere
e incoraggiare lo sviluppo della robotica verso il benessere della
società e della persona. Inoltre, grazie alla roboetica, si potrà
prevenire l’impiego della robotica contro gli esseri umani.

Il primo documento ufficiale della roboetica risale al 2006 ed è stato


elaborato nell’ambito della rete europea di robotica Euron (European
Robotics Network) da un gruppo di esperti di Giappone, Stati Uniti ed
Europa. Era nato dall’esigenza di stilare un elenco dei possibili problemi
legati all’ingresso dei robot nella società, individuando una lista delle
contromisure. Tra le priorità più urgenti c’era il rischio relativo ai robot
controllati a distanza, soprattutto nel caso di macchine con compiti di
sorveglianza e sicurezza di strutture critiche, o in quello di robot cui
venissero affidati anziani, malati o bambini. Gli esperti si erano anche
interrogati sul rischio legato al fascino dei robot: macchine di aspetto e
modi piacevoli, gentili, pazienti, servizievoli e capaci di rispondere a
moltissime domande, grazie alla loro connessione a Internet, avrebbero
potuto indurre una sorta di dipendenza, soprattutto da parte degli anziani.

Internet delle cose


Internet delle cose (IoT, acronimo dell’inglese Internet of
Things) è la rete nella quale è possibile collegare qualsiasi
oggetto o dispositivo equipaggiato con sensori e che abbia la
possibilità di collegarsi al web per raccogliere e scambiare dati.
Elettrodomestici come il frigorifero, il forno o la caldaia, robot,
veicoli, perfino interi edifici: qualsiasi oggetto può essere
connesso in una rete e dialogare con tutti gli altri dispositivi
collegati, in una sorta di grande computer ubiquo,
un’evoluzione del concetto che alla fine degli anni Ottanta
aveva portato allo sviluppo dei dispositivi mobili come tablet e
smartphone.
Il termine è stato introdotto nel 1999 da Kevin Ashton, co-
fondatore e direttore esecutivo del consorzio di ricerca Auto-ID
Center, presso il Massachusetts Institute of Technology (MIT),
che all’epoca lo aveva riferito alla possibilità di stabilire
collegamenti fra oggetti tramite radiofrequenze. Nel 2004 a
definire il concetto sono stati Neil Gershenfeld, Raffi Krikorian
e Danny Cohen, in un articolo sul mensile Scientific American
intitolato The Internet of Things. The principles that gave rise
to the Internet are now leading to a new kind of network of
everyday devices, an “Internet-0” (Internet delle cose. I
principi che hanno dato origine a Internet stanno portando a
un nuovo tipo di rete degli strumenti quotidiani, una “Internet-
0”).
Capitolo 10

A TU PER TU CON I ROBOT

29 dicembre 2015: Nadine affronta il suo primo giorno di lavoro nella


reception della Nanyang Technological University di Singapore. Sorride, il
viso incorniciato da capelli castano chiaro, indossa un abito scuro, saluta
con cortesia e una voce gentile, accompagnandosi con un leggero cenno del
capo, stringe mani. Vista da lontano sembra una signora di mezza età, dal
portamento elegante. Ma avvicinandosi ci si accorge che in lei c’è molto di
non umano. I muscoli del viso sono piuttosto statici rispetto a quelli
naturali, la pelle meno elastica, i movimenti rigidi. Infatti è un robot
umanoide, anche se molto diverso da tutti gli altri umanoidi che abbiamo
incontrato finora. Il viso è fatto di un materiale morbido e duttile come il
silicone, nel quale i lineamenti sono stati modellati su quelli della
ricercatrice che l’ha progettata, Nadia Thalmann.
Il laboratorio in cui è nato questo robot fa parte dell’Institute for Media
Innovation (IMI), l’Istituto dell’università Nanyang di Singapore il cui
obiettivo è

creare un ambiente nel quale tecnologie e creatività possano


coesistere e svilupparsi.

Nadine è un robot nato per interagire con l’uomo, sia attraverso le


parole sia con le espressioni che il suo viso può assumere: può essere
attento e assorto, allegro o triste, a seconda della conversazione che
intrattiene con gli umani. Può memorizzare i volti delle persone che
incontra e capire in questo modo se si trova davanti a qualcuno che incontra
per la prima volta o che ricorda di avere già visto; sa imparare nuove parole
e riesce ad avere dialoghi articolati con i suoi interlocutori.
Sono qualità, queste, grazie alle quali Nadine potrà affrontare
facilmente anche altri lavori oltre all’addetta alla reception, se e quando se
ne presenterà l’occasione. Potrà essere, per esempio, un ottimo robot da
compagnia oppure una badante, o ancora una baby sitter o una segretaria.
Possiamo intanto considerarla la nostra guida nella conoscenza degli
androidi, i robot dall’aspetto simile a quello umano che la fantascienza ha
immaginato da tempo e che sono diventati popolari già nel 1886, grazie al
romanzo Eva futura, di Auguste de Villiers de l’Isle-Adam. Eva, la donna
dei sogni costruita in laboratorio, anticipava un motivo ricorrente anche nel
cinema, da La fabbrica delle mogli (1975) a La donna perfetta (2004). Ci
sono androidi donna progettate per divertire e altre per combattere anche
nell’indimenticabile Blade Runner (1982).
Molto più recentemente sono nate per il cinema e lo spettacolo le
Actroid, le androidi dall’aspetto femminile progettate dall’università di
Osaka e costruite dalla Kokoro. Hanno l’aspetto di giovani donne
giapponesi, con capelli lisci e scuri e volto sorridente, i loro movimenti
sono abbastanza fluidi grazie ai sensori e agli attuatori distribuiti nel loro
corpo, soprattutto nella parte superiore. Le gambe sono invece ancora
piuttosto rigide. Una delle caratteristiche principali di questi robot è il
repertorio di espressioni che hanno appreso imitando l’uomo e che
utilizzano per comunicare, come battiti di ciglia e inclinazioni del capo,
perfino i movimenti del torace che fanno pensare ai sospiri. La pelle è di
silicone e un sistema di sensori di visione permette a queste macchine di
mantenere il contatto visivo con l’uomo.
La prima Actroid è stata presentata nel 2003 nella Rassegna
Internazionale dei Robot di Tokyo e da allora sono stati prodotti molti altri
modelli. Repliee Q1 invece, realizzata nel 2005, è stata progettata per la
ricerca e si è presentata per la prima volta in pubblico in giacca rosa e
pantaloni beige (e con un curioso paio di guanti) all’Expo di Aichi. Ha una
sorellina chiamata Repliee R1, dall’aspetto di una bambina giapponese con
i capelli corti e l’aria un po’ imbronciata.
È stata prodotta sempre dall’università di Osaka ed è dedicata alla
ricerca anche Repliee Q2, dal viso particolarmente espressivo, modellato
sulle sembianze di una presentatrice della rete NHK, il servizio
radiotelevisivo pubblico giapponese.

Figura 10.1 – Repliee Q2 (fonte: Max Braun).

Nel 2005 viene prodotto anche il primo DER (Dramatic Entertainment


Robot), seguito da DER2 e DER3: macchine dall’aspetto di giovani donne,
espressive al punto da poter recitare in pubblico, dando enfasi al discorso
con i gesti.
Nel 2006 a movimentare la scena è arrivato Geminoid-HI-1, il primo
androide maschile. Come Nadine, Geminoid-HI-1 è il sosia del ricercatore
che lo ha progettato, Hiroshi Ishiguro, dell’università di Osaka. Lui stesso
spiega perché lo ha fatto:
Figura 10.2 – L’actroid DER, presentato nell’Expo 2005 in Giappone, ad Aichi (fonte: Gnsin).

Da dove provengono sensazioni come quella della presenza di una


persona e l’atmosfera che la sua autorità riesce a creare? In che
modo queste sensazioni possono essere catturate, riprodotte e
trasmesse? Per affrontare questo mistero abbiamo sviluppato un
androide ispirandoci a una persona reale,

un gemello-androide, ossia un “geminoide”. Secondo Hiroshi Ishiguro


l’intelligenza artificiale a disposizione dei robot era ancora troppo povera,
di conseguenza per accelerare la ricerca l’unica strada è stata quella di
controllare direttamente il suo geminoide, fornendogli tutte le informazioni
necessarie. Questa strategia ha permesso di fare passi in avanti nella
programmazione degli androidi, uscendo dal terreno teorico, spesso
insidioso, per entrare in quello più empirico, basato su dati quantitativi.
Nel frattempo si è continuato a lavorare sulla naturalezza delle
espressioni degli androidi e nel 2009 Sara è stato un esempio eloquente dei
progressi fatti: nella Rassegna Internazionale di Robotica di Tokyo era nello
stand della Kokoro, muoveva il viso e le guance come se respirasse
profondamente. Quando una giornalista le ha chiesto: “Hai sempre avuto i
capelli così lunghi?”, le ha risposto: “Oh, sì! Li sto facendo crescere da
dieci anni”.
Nel 2010 è stato realizzato anche il robot minimalista Telenoid R1: una
faccia dall’identità indefinita, né maschile né femminile, né giovane né
anziano, e un corpo in silicone e piccolo come quello di un bambino, bianco
come il viso e limitato a un torso con gli arti appena abbozzati. È stato
realizzato per studiare gli elementi essenziali per rappresentare la presenza
umana.
A Tsukuba, il cuore tecnologico del Giappone che riunisce i laboratori
di almeno 200 industrie, nel 2011 è stata prodotta la prima coppia di gemelli
androidi: un maschio e una femmina identici dal punto di vista meccanico e
con la stessa faccia, distinguibili solo grazie a trucco, parrucche e
abbigliamento.

Sono una buona piattaforma per confrontare la diversa impressione


che suscitano robot maschili e femminili,

ha spiegato Yoshio Matsumoto, a capo del gruppo di ricerca che li ha


realizzati, nell’ambito dell’Istituto Nazionale per la Scienza e la Tecnologia
Industriali Avanzate (AIST). I robot gemelli sono indicati genericamente
con il nome Actroid-F e uno dei motivi per cui sono stati costruiti è capire
quale impatto psicologico possa avere sugli essere umani la presenza di
robot dall’aspetto così umano. Sono così realistici da essersi guadagnati un
posto nel Guinness dei primati come esempio di primo vero androide. I
ricercatori stessi sono stati i primi a sperimentare l’interazione con Actroid-
F:

Quando i due robot sono stati per un mese fuori dal laboratorio per
essere sperimentati in un ospedale ci siamo sentiti soli, come se
qualcuno fosse andato via,

ha ammesso Yoshio Matsumoto e, andando un po’ controtendenza, ha


continuato:

Si dice che più i robot sembrano umani, più l’uomo si sente


insicuro, [ma] quando abbiamo sperimentato il robot in un ospedale,
abbiamo chiesto a settanta persone se avere intorno un androide le
facesse sentire a disagio: solo tre o quattro hanno detto che non
gradivano averli intorno, e complessivamente la maggior parte ha
detto di avere percepito il robot come una presenza accettabile.

Il 2014 ha visto il debutto di un’altra coppia di androidi destinate a fare


notizia, nel vero senso del termine dal momento che si sono cimentate come
giornaliste. Kodomoroid, il cui nome (una combinazione della parola
giapponese “kodomo”, bambino, e “androide”) giustifica l’aspetto da
adolescente, ha dato la notizia di un terremoto, e la seconda androide,
Otonaroid (da “otona”, adulto, e “androide”), ha annunciato altre notizie di
cronaca. È accaduto a Tokyo, nel Museo nazionale delle scienze emergenti
e dell’innovazione, dove tutte e due le androidi hanno una carriera come
guida. Anche loro sono state progettate da Hiroshi Ishiguro, lo stesso
ricercatore dell’università di Osaka che ha realizzato il suo geminoide e
secondo il quale

andare avanti nella ricerca significa che i robot somiglieranno e si


comporteranno in modo sempre più simile all’uomo.

A dargli ragione, sempre nel 2014 in una delle fiere dell’elettronica più
grandi del mondo, la Global Sources Electronics Fair di Hong Kong, è stato
presentato Han, l’androide dal viso assolutamente realistico realizzato dalla
Hanson Robotics, l’azienda fondata da David Hanson che aveva montato
una realistica testa di Albert Einstein sul corpo del robot Hubo. A tanti anni
di distanza, Han è stata la dimostrazione dei grandi progressi fatti: nessun
robot ha la stessa capacità di mantenere il contatto visivo con gli esseri
umani che lo guardano e una faccia che è in grado di assumere tante
espressioni grazie a 40 motori. Ancora più realistici sono i parenti di Han
messi a punto nella stessa azienda, come Jules, l’androide con il quale è
possibile conversare, o come Joey Chaos, l’androide punk appassionato di
musica e politica che ama intrattenere discussioni su entrambi questi
argomenti o ancora come Alice, l’androide femmina realizzata per la
ricerca. Macchine come queste alimentano il dibattito, in corso da molti
anni, sull’esistenza di una soglia oltre la quale i robot molto simili all’uomo
possono non essere più percepiti come presenze amichevoli e diventano
presenze inquietanti. La discussione va avanti da molto tempo, ma senza
una fondatezza scientifica comprovata: è la teoria della cosiddetta “uncanny
valley” (valle perturbante).

Vorrei avere un robot per riuscire a capire che è un robot: non mi va


di avere ambiguità nella percezione, non mi sentirei a mio agio.

È il punto di vista di Filippo Cavallo, esperto di robotica sociale della


Scuola Superiore Sant’Anna di Pisa.

Se un robot è capace di capire che sono triste, felice o arrabbiato va


bene: si può stabilire una relazione tra uomo e robot e quest’ultimo
può fare delle azioni per promuovere l’interazione sociale. Ma per
quanto si possa stabilire una relazione emozionale con un robot,
ritengo che ci sia un limite oltre il quale non si vada. Non vedo, per
esempio, il robot diventare un confidente.

Riflessioni come queste vengono spontanee considerando che

quello che ci aspettiamo è che fra il 2030 e il 2040 possa accadere


con i robot umanoidi qualcosa di simile a quello che vediamo oggi
con i robot per pulire i pavimenti. Ma potrebbe anche accadere
qualcosa di imprevedibile, impossibile da immaginare. Pensiamo a
quando la Olivetti ha presentato il personal computer M20: era il
1982 e allora nessuno avrebbe mai potuto immaginare che di lì a 20
anni sarebbe arrivato un oggetto come il tablet.

Chissà quali sorprese potranno arrivare.


Non si esclude che il prossimo passo, che richiederà però ancora molti
anni di lavoro, possa essere una fusione tra esseri viventi e macchine. I
primi esperimenti in questo ambito sono appena cominciati e consistono in
simulazioni al computer, come quella condotta nel Virginia Tech dal gruppo
di Warren Ruder:

Abbiamo cercato di scoprire da un modello matematico se era


possibile costruire un microbioma vivente, cioè un insieme di
microrganismi e batteri, su un ospite non vivente,

ha scritto il ricercatore sulla rivista Scientific Reports. Per verificare se è


davvero possibile controllare il comportamento delle macchine utilizzando
esseri viventi, come colonie di batteri, i ricercatori hanno modificato
geneticamente i batteri in modo da colorarli, facendoli diventare verdi o
rossi a seconda di quello che mangiavano; quindi hanno programmato il
robot così che fosse in grado di riconoscere i colori, equipaggiandolo con
sensori e un microscopio in miniatura, e di interpretarli come un linguaggio.
Per esempio, nella simulazione il colore dei batteri suggeriva ai robot dove
andare e quanto velocemente muoversi.
Il risultato, secondo Ruder, è stato inequivocabile:

Abbiamo visto che i robot possono avere davvero un cervello che


lavora.

Un altro filone di ricerca appena agli inizi suggerisce un futuro in cui i


robot potrebbero sostituire gli animali domestici, come immaginava nel
1968 Philip Dick in Ma gli androidi sognano pecore elettriche?, il libro che
ha ispirato il film Blade Runner. Ne è convinto Jean-Loup Rault,
dell’università australiana di Melbourne, per il quale

potrebbe suonare surreale avere animali domestici virtuali o


robotici, ma per le prossime generazioni potrebbe essere una cosa
del tutto naturale.

Sulla rivista Frontiers in Veterinary Science ha descritto gli esperimenti


che sta conducendo in questa direzione, con l’obiettivo di riprodurre i
migliori amici dell’uomo su chip e circuiti elettronici. D’altro canto, ha
osservato:

In Giappone è già possibile vedere persone molto affezionate al loro


cane-robot. Al punto da celebrare i funerali quando i circuiti
finiscono di funzionare.

Si potrebbe forse riaprire un capitolo che la Sony aveva considerato


chiuso dal 2006, decidendo di chiudere la produzione del robot cane Aibo
(Artificial Intelligence Robot). In commercio dal 1999, il robot-cane è stato
aggiornato più volte, ma nel 2006 l’azienda non lo ha più considerato un
investimento produttivo e da allora il robot è stato utilizzato solo nei
laboratori, a scopi di ricerca.
Guardando ancora più in là nel futuro si potrebbe perfino immaginare
una sorta di “smembramento dei robot”, come lo ha definito Cavallo:

Si potrebbe pensare a una destrutturazione dei robot nella quale ogni


elemento diventi parte della nostra esperienza, in una sorta di
simbiosi fra uomo e macchina.

Questo significa che i robot potrebbero non avere più l’aspetto che
abbiamo imparato a conoscere e che, anzi, non esisterebbero più con un
oggetto fisico a sé stante: potrebbero essere scomposti in una serie di
funzioni, ognuna delle quali incorporata in un oggetto della casa.

Immagino arredi e design robotici, all’interno di una sorta di casa


animata. Tutta la casa potrebbe diventare un robot.

I mobili potrebbero diventare evoluzioni dei primi carrelli robotici


progettati per portare oggetti da una stanza all’altra e che, a seconda delle
necessità, possono sostituire il comodino accanto al letto o il tavolinetto del
salotto; il braccio meccanico che, appoggiato sul tavolo del soggiorno,
aveva aiutato a piegare la biancheria può essere portato in cucina perché ci
aiuti a preparare la cena; la casa stessa potrebbe comportarsi come un robot,
con pareti che possono spostarsi quando è necessario, oppure diventare
degli schermi.
Nessuno di questi scenari è frutto della fantasia perché tutti si basano su
tecnologie esistenti. Intanto, per prepararci al futuro, conviene considerare i
robot che per primi avremo intorno a noi, sulla base dei dati concreti che
sono sotto i nostri occhi e che abbiamo esplorato in questa breve storia dei
loro sviluppi. Fin da adesso, quindi, è realistico pensare che nell’arco di
pochi decenni potremmo ritrovarci a percorrere i corridoi dei grandi negozi
di elettronica, o forse più probabilmente a sfogliare un catalogo online,
passando in rassegna sfilate di robot simili a carrelli con un lungo collo sui
quali è installato un tablet, accanto a umanoidi dall’aspetto inequivocabile,
che permette chiaramente di riconoscere che ci si trova davanti a una
macchina, e forse anche androidi progettati per essere dei sosia dell’uomo.
Nonostante le differenze notevoli, l’elemento comune che dovremo aver
presente è che, come ha osservato Cavallo,

a differenza del robot industriale, che occupa uno spazio delimitato


e si muove nel suo ambito di lavoro, diverso da quello dell’uomo, il
robot di servizio lavora nello stesso spazio dell’uomo, nella sua
casa. A mano a mano che diventerà sempre più capace di svolgere
compiti complessi, sarà sempre più in grado di interagire con
l’uomo in modo fisico, cognitivo ed emozionale.

I robot abiteranno con noi e perché siano utili sarà indispensabile che
conoscano molto bene la nostra casa. Che abbia mani con cinque dita o
semplici pinze, la prima generazione di robot domestici dovrà essere molto
abile nel manipolare gli oggetti, in modo da liberarci dai lavori più pesanti e
antipatici, come spostare cose pesanti, pulire il bagno e la cucina, lavare i
pavimenti, rifare i letti perfettamente e stirare le camicie. I robot potranno
anche apparecchiare e sparecchiare la tavola, porgerci oggetti di cui
abbiamo bisogno e perfino sorreggerci quando è necessario, o ancora
aiutare le persone anziane a fare la doccia e a vestirsi.

Tutte queste attività della vita quotidiana presuppongono


un’interazione sociale e possiamo prevedere che con i robot
potremmo avere forme di interazione molto avanzate dal punto di
vista fisico, per esempio con azioni simili a quelle che abbiamo
appena visto … [È possibile prevedere che] ci sarà anche
un’interazione cognitiva, nel senso che i robot saranno in grado di
capire che cosa stanno facendo le persone con cui vivono, se sono di
buonumore o nervose; possono vedere l’oggetto che una persona sta
prendendo per capire che cosa si prepara a fare, per esempio uno
spazzolino significa che sta per lavarsi i denti, un cucchiaio che si
prepara a mangiare.

A creare un’interazione ancora più complessa con i robot contribuiranno


anche i progressi tecnici tesi a rendere più efficienti e fluidi i sistemi di
comando e riconoscimento vocale: grazie a questa strumentazione uomini e
robot potranno dialogare. Il robot sarà una macchina alla quale non si
daranno solo comandi, ma con la quale si potranno scambiare informazioni
secondo modelli di comunicazione più complessi. Anche la loro voce
potrebbe diventare più naturale e fluida, capace di assumere toni diversi, più
vivaci o rilassanti a seconda del nostro umore. Possiamo anche immaginare
di mandare un tweet a un robot:

È un modo di interagire interessante perché prevede un’accezione


sociale, nella quale il robot diventa un mediatore per compiere delle
azioni all’interno del mondo in cui vive ogni uomo,

ha osservato Cavallo. Avere un robot in casa sarà quindi qualcosa di molto


diverso dall’avere un qualsiasi elettrodomestico, probabilmente più
coinvolgente, ma l’importante è avere ben presente che sarà comunque una
macchina al nostro servizio, una macchina complessa e magari molto
efficiente, ma nient’altro che una macchina. Con la quale però potremmo
avere dei comportamenti sociali. A spingere in questa direzione sarà
l’Internet delle cose che, come abbiamo visto, potrà trasformare la casa
stessa in cui abitiamo in un’unica organizzazione intelligente, dove
elettrodomestici, sistemi di allarme, impianti elettrici e di riscaldamento,
illuminazione e saracinesche sono connessi in rete e dialogano fra loro. E i
robot diventeranno parte di questa rete.
“Vedo una forte convergenza delle tecnologie legate a Internet,
comunicazioni, elettronica di consumo e robotica”, ha detto Cavallo, e “un
abbraccio sempre più stretto con l’intelligenza artificiale.”
Per i robot potrebbe realizzarsi, in parte, lo scenario immaginato in
Matrix, il film di fantascienza del 1999 scritto e diretto dai fratelli
Wachowski, ambientato in un mondo nel quale gli esseri umani
conducevano un’esistenza legata indissolubilmente alla rete, dove potevano
avere accesso a qualsiasi informazione utile semplicemente scaricandola: è
così che in pochi istanti uno dei personaggi ha imparato a pilotare un
elicottero. In modo analogo, i robot potranno trovare nel web tutte le
conoscenze possibili delle quali potrebbero avere bisogno: non dovranno
fare altro che connettersi, scaricare il software e imparare.

Tutte le informazioni sono nel cloud, comprese regole e capacità di


calcolo che potranno essere condivise da tutti. Nel cloud i robot
potranno imparare a riconoscere le persone, scaricare il manuale
delle istruzioni necessario per usare degli oggetti o per ripararli.
Sono possibili dialoghi tra le macchine. Il robot sarà quindi
un’interfaccia con l’uomo e con l’Internet delle cose, una macchina
sempre connessa ma che nello stesso tempo sarà capace anche di
lavorare senza connessione, per esempio per verificare se la persona
con cui vive è caduta, o per andare a buttare la spazzatura.

Secondo Cavallo è probabile che ci sia

una soglia oltre la quale le capacità di apprendimento dei robot non


possano andare, o comunque non possa raggiungere la raffinatezza
di quella umana. . Per esempio, quando un essere umano impara a
suonare il pianoforte, lo fa in modo tale che capacità cognitiva e
fisicità si sposano in armonia, mentre questo per un robot per ora
non è possibile, né sappiamo se lo sarà in futuro.

Un’altra cosa che fin da adesso possiamo facilmente immaginare è che


non avremo a che fare soltanto con il nostro robot: ognuno di noi si troverà
molto probabilmente a interagire con un insieme di robot, da quelli che
lavorano nel condominio per fare il lavoro dei portieri a quelli che
puliscono le strade, che lavorano negli uffici pubblici o fanno i commessi
nei negozi. Potremmo trovarli ovunque e diventeranno dei
nuovi mediatori per azioni e interazioni in modo simile al
telefonino, anche se un po’ più complesso.

Come abbiamo visto, nell’Internet delle cose ci troveremo quasi


sicuramente a dover tutelare la nostra privacy e, andando più in là nel
futuro, potremmo immaginare che in qualche modo anche i robot possano
diventare una minaccia per la nostra privacy e forse per la sicurezza. In
effetti, secondo Cavallo,

su un lunghissimo periodo, anche a distanza di un secolo, potrebbe


esserci il rischio che qualcosa possa andare storto. Non
dimentichiamo, tuttavia, che è l’uomo che programma questa
intelligenza e che, in caso di necessità, è sempre possibile togliere la
corrente.

Alla luce di tutto quello che sappiamo adesso sui robot possiamo dire
che sono strumenti. Per quanto sorprendenti, gradevoli, simpatici e
risolutivi, l’importante è non dimenticare che sono strumenti che ci aiutano.
E siccome ci aiuteranno a fare le cose della routine quotidiana che oggi ci
pesano di più, possiamo facilmente immaginare che nei loro confronti
potremmo sentirci davvero riconoscenti. Sarà una reazione naturale (chi
non si è ritrovato almeno una volta a ringraziare la lavatrice di esistere?),
ma non dimentichiamo che non saranno altro che degli strumenti.

Oggi – ha detto Cavallo – possiamo considerare i sistemi domotici, i


tablet e i tasti degli elettrodomestici come dei mediatori di azioni.
Un domani il robot sarà un mediatore per programmare gli
elettrodomestici e avrà una funzione simile a quella di una colf: sarà
una macchina che serve per compiere determinate azioni e che non
vorrà sostituire le persone. Di certo, in futuro nessuna casa sarà
spenta se dentro ci sarà un robot.

Uncanny valley
Uncanny valley (valle perturbante) è il nome dato all’ipotesi
secondo cui esiste una soglia oltre la quale i robot dall’aspetto
molto realistico e simile a quello umano possano indurre una
sensazione di disagio, diffidenza e turbamento. Questa ipotesi
era stata presentata dallo studioso di robotica giapponese
Masahiro Mori in un articolo pubblicato nel 1970 sulla rivista
Energy, mentre il termine venne citato soltanto nel 1978 nel
libro Robots: Fact, Fiction, and Prediction, di Jasia Reichardt.
La teoria, alla quale non è mai stata attribuita fondatezza
scientifica, indicava che a mano a mano che l’aspetto di un
robot si avvicina a quello umano suscita nell’uomo risposte
positive di empatia, indicate da un grafico in progressiva
ascesa, ma se la somiglianza diventa troppo realistica, al punto
da rendere molto difficile capire se ci si trovi davanti a un
essere umano o a una macchina, l’empatia scompare per
lasciare spazio all’inquietudine e la curva precipita.
Informazioni sul Libro
Gentili, simpatici, tuttofare: i robot cambiano look e si preparano a entrare
nelle case. Saranno elettrodomestici molto speciali e potrebbero arrivare
intorno al 2035, proprio come immaginava la versione cinematografica dei
racconti di Io, robot di Isaac Asimov.

Laboratori di tutto il mondo sono al lavoro per progettare straordinari


tuttofare capaci di imparare. Che aspetto avranno? Potrebbero avere braccia
e gambe, o forse no. Sicuramente saranno diversi dai tanti automi metallici
immaginati dalla fantascienza e il loro aspetto potrebbe non ricordare quello
umano. Magari somiglieranno a un cartone animato. Di sicuro i progettisti
faranno di tutto perché queste macchine possano ispirare simpatia.

Questo libro è un modo per dare un’occhiata sul futuro incontrando i robot
“bambini” capaci di imparare come iCub, il robot abile pizzaiolo, il robot
polpo e i fantascientifici androidi.
Circa l’autore
Enrica Battifoglia è giornalista scientifico e lavora per l’agenzia ANSA.
Nata a Roma, laureata in Filosofia del linguaggio e in Scienze dell’opinione
pubblica, ha partecipato a spedizioni scientifiche in Antartide, nel
laboratorio Piramide del Consiglio Nazionale delle Ricerche sull’Everest e
nel Sahara occidentale. Ha pubblicato libri per ragazzi, vinto diversi premi
per la divulgazione scientifica e tenuto corsi sulla comunicazione della
scienza in master organizzati da università e privati.

Potrebbero piacerti anche