Sei sulla pagina 1di 51

N° 04 — Novembre 2019

Intelligenza artificiale
Luci e ombre degli straordinari progressi
di una tecnologia sempre più potente e pervasiva
Nel 1968, in 2001: Odissea
Indice
nello spazio, Stanley Kubrick
immaginò il computer di bordo 3 Per una teoria generale 28 L’apprendimento profondo
di un'astronave dotato di delle reti neurali della biologia
un'intelligenza pari o persino di Kevin Hartnett di Sarah Webb
superiore a quella umana.
Non sappiamo se l'intelligenza 7 Immaginazione artificiale 33 La formazione dell’universo
artificiale (IA) raggiungerà di George Musser secondo l’intelligenza
mai le capacità immaginate dal artificiale
regista, ma negli ultimi anni il 13 Neuroni artificiali più veloci
di Leonardo De Cosmo
settore ha fatto passi da gigante. del cervello umano
Algoritmi di apprendimento di Sara Reardon 35 Una morale
automatico e reti neurali sono per le macchine
impiegati sempre più spesso 15 L’elefante nella stanza
di Stefania De Vito
nella ricerca di base e in quella dell’apprendimento
applicata, battono gli esseri automatico 40 Se una macchina impara
umani in giochi come il poker di Kevin Hartnett i pregiudizi umani
e dimostrano persino qualche di Jesse Emspak
abilità "creativa". Un domani 18 Scritture artificiali
non troppo lontano, i sistemi di Leonardo De Cosmo 43 Possiamo aprire la scatola
di IA potrebbero guidare nera dell’intelligenza
le nostre automobili, ma li 23 Il programma autodidatta artificiale?
stiamo usando già oggi quando che vince giochi complessi
di Davide Castelvecchi
prendiamo uno smartphone o
25 Non giocate a poker contro
cerchiamo la strada più breve. 48 L’IA potrà superare
Questi eccezionali sviluppi
quell’intelligenza artificiale
l’intelligenza umana?
nascondono però alcuni limiti 26 L’intelligenza artificiale di Francesca Rossi
e alcuni punti critici e non sono
a caccia della selezione
pochi i problemi etici e sociali
naturale
che accompagnano la crescente
presenza dell'IA nella nostra vita di Amy Maxmen
di tutti i giorni. 

In copertina © Ryzhi/iStock

I quaderni de Le Scienze LE SCIENZE S.p.A.


Testata giornalistica plurisettimanale registrata Sede legale Via Cristoforo Colombo, 90 - 00147 Roma
Tribunale di Roma N. 88 Capitale Sociale Euro 103.400,00 i.v.
Data Registrazione: 13 giugno 2019 R.E.A. Roma n. 1038183 - Codice fiscale e Iscriz.
Direttore responsabile: Marco Cattaneo Registro Imprese di Roma 00882050156
Responsabile del trattamento dati: il responsabile Partita IVA: 00882050156
del trattamento dei dati raccolti in banche dati di uso
redazionale è il direttore responsabile a cui è possibile Consiglio di Amministrazione:
rivolgersi scrivendo a privacy@lescienze.it per i Corrado Corradi (presidente), Michael Florek (vice
diritti previsti dal Regolamento (UE) 2016/679 sulla presidente), Alessandro Alacevich, Markus Bossle,
protezione dei dati personali. Stefano Mignanego (consiglieri)

le Scienze 2 I quaderni
Per una teoria
generale delle reti
neurali

© Koma Zhang/Quanta Magazine

I sistemi di intelligenza artificiale più avanzati si basano sulle reti neurali, ispirate alle connessioni
tra i neuroni, il cui comportamento è però in gran parte imprevedibile. Nuovi studi stanno cercando di
sviluppare le fondamenta teoriche per collegarne la struttura ai compiti che devono svolgere

di Kevin Hartnett
Quando progettiamo un grattacielo, ci aspettiamo che cosa sta succedendo all'interno dei motori di qualsiasi
funzionerà secondo le specifiche: l'edificio sosterrà un certo tipo. Alla fine, quella conoscenza ci ha portato sulla Luna.
peso e sarà in grado di resistere a un terremoto di una certa "All'inizio c’era una grande tecnologia, che ha permesso
intensità. Ma per una delle tecnologie più importanti del ottimi treni, poi c’è stato bisogno di un po' di comprensione
mondo moderno in realtà stiamo costruendo alla cieca. teorica per andare sulle navicelle spaziali", ha detto Hanin.
Giochiamo con design diversi, armeggiamo con diverse
configurazioni, ma finché non facciamo una sessione di test All'interno dell'estesa comunità che si occupa dello
non sappiamo davvero cosa possono fare e dove falliranno. sviluppo di reti neurali, c'è un piccolo gruppo di matematici
ricercatori che sta cercando di costruire una teoria delle reti
Questa tecnologia è la rete neurale, che è alla base dei neurali in grado di spiegare come funzionano, per garantire
sistemi di intelligenza artificiale più avanzati di oggi. Le che, se si costruisce una rete neurale in un modo specifico,
reti neurali si stanno muovendo sempre di più verso aree sarà in grado di eseguire determinati compiti. Questo
cruciali della società: determinano ciò che apprendiamo lavoro è ancora nelle sue fasi iniziali, ma nell'ultimo anno
del mondo attraverso i social media, aiutano i medici a i ricercatori hanno prodotto vari articoli che elaborano la
diagnosticare le malattie e influenzano persino il tempo che relazione tra forma e funzione nelle reti neurali.
passerà in prigione una persona condannata per un reato.
Eppure "la migliore approssimazione a ciò che sappiamo Il lavoro fa ripartire le reti neurali dalle fondamenta.
è che non sappiamo quasi nulla di come funzionano Dimostra che molto prima di poter certificare che le
effettivamente le reti neurali e di come sarebbe una teoria reti neurali possono guidare le automobili è necessario
davvero profonda", ha detto Boris Hanin, matematico della dimostrare che possono moltiplicare.
Texas A&M University e visiting scientist alla Facebook AI
Research, che studia le reti neurali. La migliore ricetta per un cervello
Le reti neurali puntano a imitare il cervello umano e un
Hanin paragona la situazione allo sviluppo di un'altra modo per pensare al cervello è che funzioni accumulando
tecnologia rivoluzionaria: il motore a vapore. Inizialmente, astrazioni più piccole in astrazioni più grandi. La
i motori a vapore non facevano molto più che pompare complessità del pensiero, in questa prospettiva, viene
acqua. Poi hanno mosso i treni, che è forse il livello quindi misurata dalla gamma di astrazioni più piccole
di sofisticazione raggiunto dalle reti neurali. Quindi da cui è possibile attingere e dal numero di volte in cui
scienziati e matematici hanno sviluppato una teoria della è possibile combinare le astrazioni di livello inferiore in
termodinamica, che consente di capire esattamente che astrazioni di livello superiore, come quando impariamo

le Scienze 3 I quaderni
a distinguere i cani dagli uccelli. "Per un essere umano, sembrano funzionare meglio. In queste, i neuroni possono
imparare a riconoscere un cane significa imparare a essere collegati a strati non adiacenti.
riconoscere quattro soffici zampe", dice Maithra Raghu,
una studentessa di dottorato in informatica presso la A parte queste linee guida generali, tuttavia, ci si deve
Cornell University e membro di Google Brain. "Idealmente, affidare in gran parte a prove sperimentali: si fanno
vorremmo che le nostre reti neurali facessero lo stesso tipo girare 1000 diverse reti neurali e si osserva quale svolge
di cose." il compito. "Nella pratica, queste scelte sono spesso fatte
per tentativi ed errori", dice Hanin. "È un approccio un po'
L'astrazione è naturale per il cervello umano. Le reti complesso perché ci sono infinite scelte e in realtà non si sa
neurali devono lavorare per arrivarci. Come nel cervello, le quale sia il migliore".
reti neurali sono costituite da blocchi chiamati "neuroni"
che sono collegati in vari modi. (I neuroni di una rete
neurale sono ispirati ai neuroni nel cervello ma non li
imitano direttamente). Ogni neurone può rappresentare
un attributo o una combinazione di attributi, che la rete
prende in considerazione a ogni livello di astrazione.

Quando uniscono questi neuroni, i progettisti hanno molte


scelte da fare. Devono decidere quanti strati di neuroni
dovrebbe avere la rete (vale a dire quanto dovrebbe essere
"profonda"). Si pensi, per esempio, a una rete neurale
che ha il compito di riconoscere oggetti nelle immagini.
L'immagine entra nel sistema al primo livello. Al livello
successivo, la rete potrebbe avere neuroni che rilevano solo
i bordi dell'immagine. Lo strato ancora successivo combina
le linee per identificare le curve nell'immagine. Quindi
il livello seguente combina le curve in forme e trame, e il
livello finale elabora le forme e le trame per giungere a una
conclusione su ciò che sta guardando: un mammut lanoso!

“L'idea è che ogni livello combini aspetti diversi del livello


precedente. Un cerchio è un insieme di curve in molti
posti diversi, una curva è un insieme di linee in molti posti
diversi", dice David Rolnick, matematico dell'Università
della Pennsylvania. I progettisti devono anche decidere
la "larghezza" di ogni strato, che corrisponde al numero
di diverse caratteristiche che la rete prende in esame a Schema di progettazione di una rete neurale (© Lucy Reading-Ikkanda/Quanta
ogni livello di astrazione. Nel caso del riconoscimento Magazine)

dell'immagine, la larghezza dei livelli sarebbe il numero di


tipi di linee, curve o forme che esamina in ogni livello. Oltre Un approccio migliore comporterebbe un po' meno
alla profondità e alla larghezza di una rete, ci sono anche tentativi ed errori e una comprensione un po' più anticipata
delle scelte su come connettere i neuroni all'interno dei di ciò che fornirà una determinata architettura di rete
livelli e tra di essi, e quanto peso dare a ogni connessione. neurale. Alcuni articoli pubblicati di recente hanno
spostato il campo di ricerca in questa direzione. "Questi
Quindi, se si ha in mente un compito specifico, come si lavori cercano di sviluppare una sorta di ricettario per
fa a sapere quale architettura di rete neurale lo realizzerà progettare la rete neurale giusta. Se sai che cosa vuoi
al meglio? Ci sono alcune regole generali. Per le attività ottenere dalla rete, ecco la ricetta per quella rete", dice
relative alle immagini, i progettisti utilizzano tipicamente Rolnick.
reti neuronali "convoluzionali", che presentano lo stesso
schema di connessioni tra gli strati ripetuti più volte. Legare una pecora rossa
Per l'elaborazione del linguaggio naturale – come il Una delle prime importanti verifiche teoriche
riconoscimento vocale o la generazione di linguaggio – i sull'architettura delle reti neurali risale a tre decenni fa.
progettisti hanno scoperto che le reti neurali "ricorrenti" Nel 1989, gli informatici dimostrarono che se una rete

le Scienze 4 I quaderni
neurale ha un singolo livello computazionale, ma si Hanno dimostrato che se la situazione che si sta
consente a uno strato di avere un numero illimitato di modellizzando ha 100 variabili di input, è possibile
neuroni, con connessioni illimitate tra di loro, la rete sarà ottenere la stessa affidabilità usando 2100 neuroni in uno
in grado di svolgere qualsiasi compito si possa chiederle. strato o solo 210 neuroni distribuiti su due livelli. Hanno
scoperto la potenzialità che c'è nel prendere piccoli pezzi e
È stata una dichiarazione generale che si è rivelata combinarli a livelli più alti di astrazione invece di tentare di
abbastanza intuitiva e non così utile. È come dire che catturare tutti i livelli di astrazione contemporaneamente.
se si può identificare un numero illimitato di linee in "La nozione di profondità in una rete neurale è legata
un'immagine, si può distinguere tra tutti gli oggetti all'idea che puoi esprimere qualcosa di complicato facendo
usando solo un livello. Questo può essere vero in linea molte cose semplici in sequenza", dice Rolnick. "È come
di principio, ma è ben difficile tradurlo in pratica. I una catena di montaggio."
ricercatori oggi descrivono reti così ampie e piatte
come "espressive", vale a dire che sono capaci in teoria Rolnick e Tegmark hanno dimostrato l'utilità della
di catturare un insieme più ricco di connessioni tra i profondità chiedendo alle reti neurali di svolgere un
possibili input (come un'immagine) e gli output (come compito semplice: moltiplicare le funzioni polinomiali.
le descrizioni dell'immagine). Tuttavia queste reti sono (Queste sono equazioni che presentano variabili elevate
estremamente difficili da addestrare, il che significa che è a esponenti che sono numeri naturali, per esempio y = x3
quasi impossibile insegnare loro come  produrre realmente + 1). Hanno addestrato le reti mostrando loro esempi di
questi output. Dal punto di vista computazionale, inoltre, equazioni e dei loro prodotti. Quindi hanno chiesto alle
sono anche più impegnative di quanto potrebbe gestire reti di calcolare i prodotti delle equazioni che non avevano
qualunque computer. mai visto prima. Le reti neuronali più profonde hanno
appreso il compito con molti meno neuroni di quelle meno
Più di recente, i ricercatori hanno cercato di capire fino a profonde.
che punto possono spingere le reti neurali nella direzione
opposta, rendendole più strette (con meno neuroni per Anche se la moltiplicazione non è un compito che
strato) e più profonde (con più strati complessivamente). rivoluzionerà il mondo, Rolnick afferma che l'articolo
Può darsi che basti scegliere  solo 100 linee diverse, ma ha segnato un punto importante: "Se una rete poco
dotate di connessioni, per trasformare quelle 100 linee profonda non può nemmeno fare un moltiplicazione, non
in 50 curve, che poi è possibile combinare in 10 diverse dovremmo fidarcene per nient'altro". Altri ricercatori
forme, che danno tutti gli elementi costitutivi necessari per hanno studiato la quantità minima di larghezza necessaria.
riconoscere la maggior parte degli oggetti. Alla fine di settembre, Jesse Johnson, già matematico
dell'Oklahoma State University e ora ricercatore presso
la casa farmaceutica Sanofi, ha dimostrato che a un certo
punto nessuna profondità può compensare la mancanza di
larghezza.

Per avere un'idea del suo risultato, immaginiamo delle


pecore in un campo. Tuttavia, si tratta di pecore punk-rock:
la loro lana è stata tinta in diversi colori. Il compito della
nostra rete neurale è tracciare una linea attorno a tutte le
pecore dello stesso colore.

In sostanza, questo compito è simile alla classificazione


delle immagini: la rete ha una raccolta di immagini (che
rappresenta come punti nello spazio di dimensione
superiore) e ha bisogno di raggruppare quelle simili.
Le reti neurali si ispirano alle reti di neuroni, ma non li imitano direttamente
(© Maurizio De Angelis/AGF)  Johnson ha dimostrato che una rete neurale fallirà in
questo compito quando la larghezza degli strati è inferiore
In un articolo completato l'anno scorso, Rolnick e Max o uguale al numero di input. Quindi, riguardo alle nostre
Tegmark del Massachusetts Institute of Technology hanno pecore, ciascuna può essere descritta con due input: una
dimostrato che aumentando la profondità e diminuendo x e una y per specificare la sua posizione nel campo. La
la larghezza, è possibile eseguire le stesse funzioni con un rete neurale etichetta dunque ogni pecora con un colore e
numero di neuroni esponenzialmente inferiore. traccia un bordo attorno alle pecore dello stesso colore. In

le Scienze 5 I quaderni
questo caso, ci sarà bisogno di tre o più neuroni per strato
per risolvere il problema.
Più nello specifico, Johnson ha dimostrato che se il
rapporto larghezza-variabile è sbagliato, la rete neurale
non sarà in grado di definire cicli chiusi, il tipo di cicli che
avrebbe bisogno di definire se, per esempio, tutte le pecore
rosse fossero raggruppate insieme al centro del pascolo. "Se
nessuno degli strati è più spesso del numero di dimensioni
di input, ci sono alcune forme che la funzione non sarà mai
in grado di creare, indipendentemente dal numero di livelli
che si aggiungono", ha detto Johnson.

Articoli come quello di Johnson stanno iniziando a


costruire i rudimenti di una teoria delle reti neurali. Al
momento, i ricercatori possono fare solo affermazioni
molto basilari sulla relazione tra architettura e funzione
e queste affermazioni sono una piccola parte rispetto al
numero di compiti che le reti neurali stanno affrontando.
Quindi, anche se la teoria delle reti neurali non cambierà
di colpo il modo in cui vengono costruiti i sistemi, si
stanno elaborando i progetti per una nuova teoria su come
imparano i computer: una teoria che potrebbe avviare
l'umanità lungo un percorso con ripercussioni ancora
maggiori del viaggio sulla Luna.

(L'originale di questo articolo è stato pubblicato da


QuantaMagazine.org, una pubblicazione editoriale
indipendente online promossa dalla Fondazione Simons
per migliorare la comprensione pubblica della scienza.)

www.lescienze.it, 9 febbraio 2019

le Scienze 6 I quaderni
Immaginazione artificiale

© Oliver Burston/AGF

Come le macchine potrebbero imparare la creatività, il buon senso e altre qualità umane

di George Musser

Se vi prende un attacco di cinismo a proposito degli esseri macchine, se fossero più argute, potrebbero risolvere una
umani, un buon antidoto è parlare con i ricercatori che si maggior varietà di problemi. I dati sono particolarmente
occupano di intelligenza artificiale (IA). Potreste aspettarvi limitati per il mondo fisico. Se un robot deve imparare a
toni trionfalistici, adesso che i sistemi di IA hanno manipolare cubi su un tavolo, non è realistico pensare di
raggiunto o superato gli esseri umani nel riconoscere volti, mostrargli ogni disposizione che potrebbe trovare; come un
tradurre lingue, vincere a giochi da tavola e videogiochi o essere umano, dovrà apprendere alcune capacità generali,
ricordarsi di mettere la freccia. Invece parlano sempre di anziché imparare a memoria.
quanto sia meraviglioso il cervello umano, di quanto sia
adattabile, efficiente, dotato di facoltà infinite. Le macchine Mentre imparano a funzionare con meno input, le
ancora non hanno queste qualità. Sono inflessibili, opache macchine devono anche produrre più risultati. Non
e lente ad apprendere, dunque hanno bisogno di un lungo basta la risposta, le persone vogliono conoscere anche
addestramento. Anche i successi tanto sbandierati sono il ragionamento che c’è dietro, soprattutto quando gli
molto limitati. algoritmi decidono su prestiti e pene di reclusione. I
burocrati umani possono essere interrogati riguardo ai loro
Molti ricercatori si sono dedicati all’IA perché vogliono pregiudizi e conflitti di interesse, ma buona fortuna a chi
capire, riprodurre e infine sorpassare l’intelligenza umana, cerca di farlo con i sistemi attuali di IA. Nel 2018 l’Unione
ma persino quelli con interessi più pratici ritengono che Europea ha dato ai cittadini un diritto limitato a ricevere
i sistemi artificiali dovrebbero essere più simili a noi. Per una spiegazione per le decisioni prese con il trattamento
esempio, una piattaforma di social media che addestra automatico. Negli Stati Uniti la Defense Advanced
un sistema di riconoscimento delle immagini non avrà Research Projects Agency sovvenziona un programma
problemi a trovare foto di gatti o di personaggi famosi, sulla «IA spiegabile», perché i comandanti non vorrebbero
ma altre categorie di dati sono più difficili da ottenere, e le mandare le truppe in battaglia senza sapere il perché.

le Scienze 7 I quaderni
La comunità che si occupa di questi problemi è enorme, apprendimento la rete riesce a rispondere a indicazioni più
le idee sono tante e ci si chiede tra l’altro se per ottenere vaghe o addirittura a discernere le categorie in autonomia.
un’intelligenza più simile a quella umana sia necessario
un cambiamento radicale degli strumenti in uso. Ma Una rete neurale può classificare immagini che non ha
è ragguardevole il punto già raggiunto anche solo con mai visto prima. I teorici non sono ancora sicuri di come ci
miglioramenti incrementali. Automiglioramento, fantasia, riesca, ma un fattore importante è che gli esseri umani che
buon senso: queste che sembrano qualità tipicamente la usano devono tollerare errori o addirittura introdurne
umane sono già integrate nelle macchine, almeno in deliberatamente. Una rete che classifica correttamente il
parte. Il punto chiave è un allenamento ben congegnato. primo gruppo di immagini che riceve potrebbe lavorare
Guidate da addestratori umani, le macchine fanno da sole i male, basando il giudizio su indicazioni inaffidabili e
maggiori passi avanti. variazioni invece che sulle caratteristiche essenziali. Questa
  capacità delle reti di modellare se stesse significa che
Reti neurali profonde possono risolvere problemi che i progettisti umani non
Rispetto alla maggior parte degli altri campi di scienza sanno come risolvere. Incluso come rendere le reti ancora
e ingegneria, l’IA è più soggetta a un andamento ciclico. migliori.
Vive ondate di infatuazione e abbandono, con metodi che
ritornano più o meno d’attualità. La tecnologia in ascesa
è quella delle reti neurali: strutture interconnesse di unità
base di calcolo, i «neuroni».
Ogni neurone può essere un interruttore che passa da
acceso a spento o viceversa a seconda dello stato delle
altre unità base a cui è collegato. Di solito i neuroni sono
disposti su livelli: il primo livello accetta l’input (per
esempio i pixel di un’immagine), l’ultimo livello produce
l’output (una descrizione del contenuto dell’immagine) e
i livelli intermedi, o «nascosti», generano combinazioni
aritmetiche dell’input. Alcune reti, soprattutto quelle usate
per problemi che si sviluppano nel tempo, per esempio
il riconoscimento linguistico, hanno cicli che ricollegano
Un robot dipinge un’opera d’arte composta da  AARON - un programma per computer
l’output o i livelli nascosti all’input. realizzato dall’artista Harold Cohen per realizzare opere artistiche originali (© Hank
Morgan/SPL/AGF)
Una cosiddetta rete profonda ha decine o centinaia di livelli
nascosti, che possono rappresentare strutture intermedie Il meta-livello
come spigoli e forme geometriche, anche se quello che Spesso gli insegnanti lamentano che gli studenti
fanno non è sempre evidente. Con migliaia di neuroni e dimenticano tutto in estate. Per ridurre, in un certo senso,
milioni di interconnessioni, non c’è un percorso logico la durata delle vacanze, caricano gli studenti di compiti.
semplice nel sistema, che è intenzionalmente progettato in Ma gli psicologi, come Robert Bjork, dell’Università della
questo modo. Le reti neurali ottengono ottimi risultati nel California a Los Angeles, hanno scoperto che dimenticare
risolvere problemi che non sono riducibili a regole logiche non è dannoso per l’apprendimento, è essenziale. Lo stesso
esplicite, per esempio nel riconoscimento di schemi. principio si applica anche per l’apprendimento automatico
(machine learning).
Un aspetto cruciale è che le connessioni neurali non sono
fissate in anticipo, ma si adattano in un processo per Se una macchina impara un compito e poi lo dimentica, poi
tentativi. Alla rete sono presentate immagini etichettate ne impara un altro e lo dimentica, e avanti così, è possibile
come «cane» o «gatto»; per ogni immagine, il sistema insegnarle a individuare le caratteristiche comuni ai vari
prova a indovinare l’etichetta; quando sbaglia, con un compiti e in seguito apprenderà più in fretta le nuove
semplice esercizio di calcolo si modifica la forza delle varianti. Non avrà imparato niente di specifico, ma avrà
connessioni che hanno contribuito al risultato sbagliato. appreso come imparare, quello che si definisce meta-
Partendo da zero, quando la rete non sa che cosa sia apprendimento, e quando si vorrà che impari informazioni
un’immagine, men che mai un animale, i risultati non precise sarà pronta. «Quando hai imparato a fare 1000
sono migliori di quelli che si otterrebbero con il lancio compiti, il 1001 è molto più facile», dice Sanjeev Arora,
di una moneta. Ma dopo forse 10.000 esempi il sistema teorico dell’apprendimento automatico alla Princeton
raggiunge il livello di un essere umano. Con altri metodi di University. È il dimenticare che permette di passare

le Scienze 8 I quaderni
Le tecniche: effetti di rete

Nonostante il loro
immenso potere, le
reti neurali hanno
ancora grossi limiti. Per
classificare le immagini,
la rete prende come
input i pixel, li elabora
in diverse fasi e dà come
output le probabilità
che a quell’immagine
si attribuiscano le
diverse singole etichette.
Per mettere a punto
le interconnessioni
di solito ci vogliono
migliaia di immagini
campione e inoltre il
modo preciso in cui
la rete giunge alla
classificazione si
perde nel groviglio
delle connessioni.
Diverse tecniche
nuove risolvono questi
problemi.

Illustrazione di Brown Bird Design

le Scienze 9 I quaderni
dall’apprendimento al meta-apprendimento. Se non modifichiamo il punto di partenza in modo che la rete
si dimentica nulla, i compiti si confondono tra loro e la dia prestazioni migliori la volta successiva. Passiamo ai
macchina non ne vede la struttura generale. gatti, e di nuovo presentiamo solo un esempio di ogni
Il meta-apprendimento dà alle macchine un po’ della razza. Continuiamo con auto, cappelli e così via, seguendo
nostra flessibilità mentale. «Probabilmente sarà un una rotazione casuale tra le categorie. Proponiamo
elemento chiave per raggiungere un’IA che funzioni ripetutamente i compiti e testiamo spesso il sistema.
al livello di un’intelligenza umana», afferma Jane
Wang, neuroscienziata computazionale a DeepMind, di La rete non impara a riconoscere specificamente cani, gatti,
Google, a Londra. Viceversa, Wang ritiene che il meta- auto oppure cappelli, ma impara qual è lo stato iniziale che
apprendimento dei computer aiuterà la scienza a capire le permette di partire con il piede giusto per classificare
quello che succede nella testa degli esseri umani. qualsiasi cosa le sia presentata in gruppi di cinque. Alla
fine diventa rapida: possiamo mostrarle cinque specie di
In natura, il massimo esempio di algoritmo di meta- uccelli e risponde subito correttamente. Secondo Finn la
apprendimento è l’evoluzione darwiniana. In un rete diventa così acuta perché sviluppa una distorsione, che
ambiente mutevole, le specie sono spinte a sviluppare in questo contesto è una cosa positiva. Si aspetta che i dati
la capacità di apprendere invece di affidarsi a istinti di ingresso abbiano la forma di un’immagine e si prepara
fissi. Negli anni ottanta i ricercatori che studiavano l’IA di conseguenza. «Se hai una capacità di rappresentazione
hanno usato un’evoluzione simulata per ottimizzare gli che sa riconoscere le forme degli oggetti, i colori degli
agenti software per l’apprendimento. Ma l’evoluzione oggetti e la loro consistenza e che sa rappresentare queste
è una ricerca casuale che esplora un numero indefinito cose in modo conciso, allora quando vedi un oggetto nuovo
di vicoli ciechi, e nei primi anni duemila i ricercatori dovresti riuscire a riconoscerlo rapidamente», afferma.
hanno trovato metodi più sistematici e più rapidi. Con il
giusto regime di allenamento, qualsiasi rete neurale può Finn ha applicato questa tecnica anche ai robot sia reali che
apprendere a imparare. Come avviene per molte altre cose virtuali. In un esperimento ha dato a un robot con quattro
nell’apprendimento automatico, l’importante è essere zampe una serie di comandi, ordinandogli di correre
precisi nell’indicare gli obiettivi. Se vogliamo che una rete in varie direzioni. Con il meta-apprendimento, il robot
impari a riconoscere volti, dovremo presentarle volti. ha capito che la caratteristica comune dei comandi era
Per analogia, se vogliamo che impari come apprendere, «correre» e che l’unica domanda era «in quale direzione?»,
dovremo presentarle esercizi di apprendimento. così si preparava correndo sul posto. «Quando corri sul
posto, è più facile adattarsi rapidamente a correre in avanti
Nel 2017 Chelsea Finn, dell’Università della California a o all’indietro, perché stai già correndo», spiega Finn.
Berkeley, e colleghi hanno sviluppato un metodo che hanno
chiamato meta-apprendimento indipendente dal modello Questa tecnica, come altri approcci simili provati da
(model-agnostic meta-learning). Immaginiamo di voler Wang e altri, ha i suoi limiti. Anche se riduce la quantità
insegnare a una rete neurale a classificare le immagini di dati campione necessari per un compito, in generale ne
scegliendo una categoria tra cinque, che siano razze di cani, richiede tanti. «I metodi attuali di meta-apprendimento
razze di gatti, marche di auto, colori di cappelli o altro. richiedono un enorme addestramento preventivo», dice
Nell’apprendimento normale, non «meta», immettiamo Brenden Lake, scienziato cognitivo dell’Università di New
migliaia di immagini di cani e modifichiamo la rete in modo York (NYU), uno dei più importanti paladini di un’IA più
che le classifichi. Poi immettiamo migliaia di immagini umana. Il meta-apprendimento è anche impegnativo dal
di gatti, ma questo ha lo spiacevole effetto collaterale punto di vista computazionale perché sfrutta differenze
di annullare il lavoro sui cani; se apprende in questo tra i comandi che a volte sono molto sottili. Se i problemi
modo, la macchina è in grado di eseguire solo un tipo di non sono definiti abbastanza bene a livello matematico, i
classificazione alla volta. ricercatori devono ripiegare sugli algoritmi evolutivi, più
lenti. «Le reti neurali hanno fatto passi avanti, ma sono
Nel meta-apprendimento indipendente dal modello, si lontane dal raggiungere un apprendimento dei concetti
inframezzano le categorie. Mostriamo alla rete solo cinque simile a quello degli esseri umani», afferma Lake.
immagini di cani, una per ogni razza, e poi presentiamo  
un’immagine di prova per vedere fino a che livello riesce Cose mai esistite
a classificarla correttamente; probabilmente non riuscirà Proprio quello che mancava su Internet: altre foto di
molto bene, dopo soli cinque esempi. Riportiamo la rete personaggi famosi. Negli ultimi anni l’etere è stato
al punto di partenza, cancellando le poche conoscenze inondato da un tipo nuovo e strano di fotografie, immagini
che può aver appreso sui cani, ma, è il punto chiave, di persone che in realtà non sono esistite. Sono il prodotto

le Scienze 10 I quaderni
di una nuova tecnologia di IA con una forma ingegnosa di così tanti usi in così poco tempo, dall’analisi di dati
fantasia. «Cerca di immaginare foto di persone nuove che cosmologici alla progettazione di capsule dentali. Ogni
dall’aspetto potrebbero credibilmente essere personaggi volta che è necessario assorbire un set di dati e produrre
famosi nella società», dice Ian J. Goodfellow di Google dati simulati con gli stessi indicatori statistici si può usare
Brain a Mountain View, in California. «Si ottengono una rete antagonista generativa. «Basta fornire un bel po’
fotografie molto realistiche di persone attraenti secondo i di immagini e chiedere: “Ne puoi fare altre come queste?”»,
canoni convenzionali». spiega Kyle Cranmer, fisico alla NYU, che ha usato la
tecnica per simulare le collisioni di particelle in modo più
La fantasia è abbastanza facile da automatizzare. In rapido di quanto ci sarebbe voluto per risolvere tutte le
pratica basta prendere una rete neurale di riconoscimento equazioni quantistiche.
immagini, chiamata anche «discriminatore», e farla
girare al contrario; a quel punto diventa una rete di Una delle applicazioni più notevoli è Pix2Pix, che può
produzione di immagini, detta anche «generatore». realizzare ogni genere di elaborazione di immagini. Per
Un discriminatore riceve come input i dati e restituisce esempio, un programma di grafica come Photoshop può
un’etichetta, per esempio una razza di cani. Un generatore facilmente prendere un’immagine a colori e ridurla in
riceve un’etichetta e restituisce dati. La parte difficile è scala di grigio o addirittura a disegno tratteggiato, ma
far sì che questi dati siano significativi: se come input si andare nell’altra direzione è molto più difficile, perché per
inserisce «Shih Tzu», la rete deve restituire un archetipo colorare un’immagine o un disegno bisogna fare scelte
di Shih Tzu e per produrre un cane su richiesta ha bisogno creative. Ma Pix2Pix può farlo. Basta inserire coppie
di sviluppare al suo interno l’idea di cane. Mettere a punto campione di immagini a colori e disegni tratteggiati e
una rete che faccia tutto questo è difficile dal punto di vista il programma impara a metterli in relazione. Poi si può
computazionale. inserire un disegno tratteggiato e Pix2Pix lo completerà
come immagine, anche per aspetti su cui in origine non ha
Nel 2014 Goodfellow, che all’epoca stava finendo il ricevuto un addestramento specifico.
dottorato, ha pensato di far lavorare in coppia i due
tipi di rete. Un generatore crea un’immagine e un
discriminatore la confronta ai dati, così il controllo pignolo
del discriminatore allena il generatore. «Abbiamo creato
un gioco tra due giocatori», dice Goodfellow. «Uno è
una rete generativa che crea immagini, l’altro è una
rete discriminativa che guarda le immagini e cerca di
capire se siano vere o false». La tecnica è nota come «reti
antagoniste generative». All’inizio il generatore produce
rumore casuale, che non è un’immagine di qualcosa,
tanto meno rappresentativa dei dati di addestramento.
Ma all’inizio neanche il discriminatore è capace di
discernere granché. Via via che questo affina i gusti,
anche il generatore deve migliorare le prestazioni, quindi
i due si spronano a vicenda. In quella che è una vittoria
dell’artista sul critico, alla fine il generatore riproduce i dati
con tanta verosimiglianza che il discriminatore è ridotto a Nell’installazione “Archive Dreaming”, l’artista Refik Anadol utilizza l’intelligenza
artificiale per visualizzare quasi due milioni di documenti storici ottomani (© Chris
indovinare, a caso, se l’output sia vero o no. McGrath/Getty Images)

La procedura è complessa e le reti possono bloccarsi, Altri progetti sostituiscono la competizione con la
creare immagini non realistiche o non riuscire a catturare collaborazione. Nel 2017 Nicholas Guttenberg e Olaf
tutta la varietà dei dati. Per esempio il generatore, per Witkowski, dell’Earth-Life Science Institute di Tokyo,
fare il minimo necessario per ingannare il discriminatore, hanno impostato una coppia di reti a cui hanno mostrato
potrebbe collocare i volti sempre contro lo stesso sfondo. mini-dipinti che avevano creato, di vari stili. Le reti
«Non abbiamo una buona teoria matematica del perché dovevano determinare lo stile usato, ma ciascuna vedeva
alcuni modelli riescano a offrire buoni risultati e altri no», una parte diversa del dipinto, quindi dovevano collaborare.
afferma Goodfellow. Per farlo dovevano sviluppare un linguaggio privato, che
era semplice ma abbastanza espressivo per il compito.
Comunque sia, poche altre tecniche di IA hanno trovato «Trovavano un insieme di cose in comune di cui parlare»,

le Scienze 11 I quaderni
racconta Guttenberg. Le reti che imparano da sole a di orientamento. I ricercatori hanno presentato tutte
comunicare aprono nuove possibilità. «La speranza è le permutazioni alla rete, il cui compito era isolare i
vedere una società di reti che sviluppano un linguaggio e si cinque fattori di fondo: forma, posizione sui due assi,
insegnano capacità a vicenda», dice Guttenberg. E se una orientamento e dimensione. All’inizio hanno permesso un
rete riesce a comunicare quello che fa a un’altra rete, forse solo fattore e la rete ha scelto la posizione come quello più
può imparare a spiegare come funziona anche a un essere importante, la variabile senza la quale nessuna delle altre
umano, rendendo meno imperscrutabile il suo modo di avrebbe avuto senso. Poi la rete ha aggiunto gli altri fattori
ragionare. in successione.
 
Imparare il buon senso In questa dimostrazione i ricercatori conoscevano le
La parte più divertente di una conferenza sull’IA è quella regole del mondo perché le avevano scelte loro. Nella vita
in cui un ricercatore mostra gli errori sciocchi fatti dalle reale non sarebbe così ovvio capire se questo metodo del
reti neurali, che scambiano per esempio l’immagine districamento (in inglese, disentanglement) funzioni
casuale dell’assenza di segnale video per un armadillo, o meno. A oggi per determinarlo è ancora necessario il
o uno scuolabus per uno struzzo. La conoscenza di giudizio soggettivo di un essere umano.
cui dispongono è molto superficiale, e gli schemi che
riconoscono possono essere scollegati dagli oggetti fisici Come il meta-apprendimento e le reti antagoniste
che compongono una scena. «Non hanno la comprensione generative, anche il disentanglement ha molte applicazioni.
della composizione degli oggetti che hanno persino animali Innanzitutto rende più comprensibili le reti neurali,
come i ratti», spiega Irina Higgins, ricercatrice sull’IA a perché diventa possibile osservarne il ragionamento,
DeepMind. molto simile a quello umano. Un robot può anche usare il
disentanglement per creare una mappa dell’ambiente che
Nel 2009 Yoshua Bengio, dell’Università di Montreal, lo circonda e pianificare il movimento, invece di muoversi
ha ipotizzato che le reti neurali sarebbero giunte a una goffamente per tentativi. Abbinato a quella che i ricercatori
comprensione vera e propria se si fossero potute districare chiamano motivazione intrinseca (in pratica la curiosità), il
le loro rappresentazioni interne, cioè se ciascuna delle loro metodo guida un robot in un’esplorazione sistematica.
variabili fosse corrisposta a un elemento indipendente del
mondo. Per esempio, la rete dovrebbe avere una variabile Inoltre il disentanglement aiuta le reti ad apprendere
di posizione per ogni oggetto. Se un oggetto si muove, nuovi insiemi di dati senza perdere quello che già
ma il resto rimane uguale, dovrebbe cambiare solo quella conoscono. Per esempio, immaginiamo di mostrare alla
variabile, anche se sono cambiate centinaia di migliaia di rete immagini di cani: sviluppa una rappresentazione
pixel. districata specifica delle specie canine. Se poi passiamo ai
gatti, le nuove immagini si collocano al di fuori di quella
Nel 2016 Higgins e colleghi hanno trovato un modo per rappresentazione (le vibrisse sono un indizio evidente)
farlo. Si basa sul principio che il vero insieme di variabili, e la rete nota il cambiamento. «Possiamo guardare a
che corrisponde alla vera struttura del mondo, sia anche come rispondono i neuroni, e se iniziano a comportarsi
il più economico. I milioni di pixel di un’immagine sono in modo atipico probabilmente significa che dobbiamo
generati da relativamente poche variabili combinate iniziare l’apprendimento relativo a un nuovo set di dati»,
in una moltitudine di modi. «Il mondo è dotato di dice Higgins. A quel punto la rete potrebbe adattarsi, per
ridondanza, ed è il tipo di ridondanza che il cervello può esempio aggiungendo nuovi neuroni per immagazzinare le
comprimere e sfruttare», dice Higgins. Per raggiungere una nuove informazioni senza sovrascrivere quelle vecchie.
descrizione parsimoniosa, la sua tecnica usa l’equivalente
computazionale dello strizzare gli occhi: limita Molte qualità che i ricercatori dell’IA danno alle loro
deliberatamente la capacità della rete di rappresentare il macchine sono associate, negli esseri umani, alla coscienza.
mondo, in modo che sia costretta a selezionare solo i fattori Nessuno sa bene che cosa sia la coscienza o perché noi
più importanti. Poi si allenta gradualmente la limitazione e esseri umani abbiamo una vita mentale così vivace, ma ha a
si permette alla rete di includere fattori secondari. che fare con la nostra capacità di creare modelli del mondo
e di noi stessi. I sistemi di IA hanno bisogno di questa
In una dimostrazione, Higgins e colleghi hanno costruito stessa capacità. Una macchina dotata di coscienza sembra
un «mondo» semplice da far esaminare alla rete. Era ancora lontana, ma forse le tecnologie attuali sono i primi
composto da elementi a forma di cuore, quadrato e piccoli passi in quella direzione.
ovale disposti su una griglia, ciascuno dei quali poteva
essere di sei dimensioni diverse e avere 20 diversi angoli Le Scienze, n.612, agosto 2019

le Scienze 12 I quaderni
Neuroni artificiali
più veloci del
cervello umano

© A. Pasieka/SPL/AGF

La recente realizzazione di microprocessori simili ai neuroni che elaborano le informazioni in modo


molto più rapido ed efficiente del nostro cervello segna un importante passo avanti nello sviluppo di
hardware "neuromorfico" per fornire la necessaria potenza di calcolo ai sistemi di intelligenza artifi-
ciale che si ispirano al cervello umano

di Sara Reardon
Microchip di calcolo a superconduttori realizzati imitando i Nei sistemi elettronici convenzionali, i transistor elaborano
neuroni sono in grado di elaborare le informazioni in modo le informazioni a intervalli regolari e in quantità precise: bit
più rapido ed efficiente del cervello umano. Il risultato, che assumono i valori 1 o 0. Ma i dispositivi neuromorfici
descritto sul numero del 26 gennaio di "Science Advances", possono accumulare piccole quantità di informazioni da
è una pietra miliare nello sviluppo di dispositivi informatici più fonti, alterarle per produrre un diverso tipo di segnale
avanzati progettati per imitare i sistemi biologici. E e far partire una scarica elettrica solo quando necessario,
potrebbe aprire la strada a un software di apprendimento proprio come i neuroni biologici. Di conseguenza, i
automatico più naturale, anche se rimangono molti ostacoli dispositivi neuromorfici richiedono meno energia per
prima che possa essere usato commercialmente. funzionare.

Il software di intelligenza artificiale imita sempre più Gestire le sinapsi


spesso il cervello. Algoritmi come quelli realizzati da Eppure questi dispositivi sono ancora inefficienti,
Google per i programmi automatici di classificazione delle specialmente quando trasmettono informazioni attraverso
immagini e di apprendimento delle lingue utilizzano reti lo spazio, o sinapsi, tra i transistor. Così il gruppo di
di neuroni artificiali per svolgere compiti complessi. Ma Schneider ha creato elettrodi simili a neuroni con
poiché l'hardware dei computer convenzionali non era superconduttori a niobio, che conducono elettricità senza
progettato per eseguire algoritmi simili a quelli del cervello, resistenza, riempiendo gli spazi tra i superconduttori con
questi compiti di apprendimento automatico richiedono migliaia di nanocluster di manganese magnetico.
una potenza di calcolo di alcuni ordini di grandezza
superiore a quella del cervello umano. "Ci deve essere un Variando la quantità di campo magnetico nella sinapsi,
modo migliore per farlo, perché la natura l'ha trovato", i nanocluster possono essere allineati per puntare in
dice Michael Schneider, fisico del National Institute of diverse direzioni. Ciò consente al sistema di codificare le
Standards and Technology (NIST) degli Stati Uniti a informazioni sia nel livello di elettricità sia nella direzione
Boulder, Colorado, coautore dello studio. del magnetismo, garantendo una potenza di calcolo molto
maggiore rispetto ad altri sistemi neuromorfici, senza
Il NIST è uno dei pochi gruppi che cercano di sviluppare occupare spazio fisico aggiuntivo.
l'hardware "neuromorfico" che imita il cervello umano,
nella speranza che esegua software simile a quello del Le sinapsi possono trasmettere impulsi fino a un
cervello in modo più efficiente. miliardo di volte al secondo – vari ordini di grandezza più

le Scienze 13 I quaderni
velocemente dei neuroni umani – e usare un decimillesimo Anche Furber sottolinea che le applicazioni pratiche
della quantità di energia usata da una sinapsi biologica. sono di là da venire. "Le tecnologie dei dispositivi sono
Nelle simulazioni al computer, i neuroni sintetici potevano potenzialmente molto interessanti, ma non sappiamo
raccogliere l'input da un massimo di nove fonti prima ancora abbastanza sulle proprietà cruciali delle sinapsi
di trasmetterlo all'elettrodo successivo. Ma sarebbero biologiche per capire come usarle efficacemente", dice.
necessarie milioni di sinapsi prima che un sistema basato Per esempio, ci sono interrogativi aperti su come le sinapsi
su questa tecnologia possa essere utilizzato per il calcolo si rimodellano in modo autonomo quando si codifica un
complesso, afferma Schneider, e resta da vedere se sarà ricordo, rendendo difficile ricreare il processo in un chip di
possibile riprodurlo a quella scala. memoria.

Tuttavia, poiché ci vogliono 10 anni o più perché i nuovi


dispositivi di calcolo raggiungano il mercato, afferma
Furber, vale la pena di sviluppare il maggior numero di
approcci tecnologici possibili, anche se i neuroscienziati
lottano ancora per comprendere il cervello umano.

www.lescienze.it, 31 gennaio 2018

Micrografia di una delle sinapsi artificiali realizzate al NIST (Cortesia NIST)

Un altro problema è che le sinapsi possono funzionare solo


a temperature prossime allo zero assoluto e devono essere
raffreddate con elio liquido.

Steven Furber, ingegnere informatico dell'Università


di Manchester, nel Regno Unito, che studia il calcolo
neuromorfico, afferma che questo potrebbe rendere i
chip poco pratici per l'uso in piccoli dispositivi, anche
se un grande centro dati potrebbe riuscire a gestirli. Ma
Schneider afferma che il raffreddamento dei dispositivi
richiede molta meno energia rispetto al funzionamento
di un sistema elettronico convenzionale con una quantità
equivalente di potenza di calcolo.

Un approccio alternativo
Carver Mead, ingegnere elettronico del California Institute
of Technology di Pasadena, elogia la ricerca, definendola
un nuovo approccio al calcolo neuromorfico. "Il campo è
pieno di esagerazioni propagandistiche, ed è bello vedere
un lavoro di qualità presentato in modo obiettivo", dice.
Ma aggiunge che ci vorrà molto tempo prima che i chip
possano essere utilizzati per il vero calcolo, e sottolinea
che si trovano ad affrontare una forte concorrenza da parte
di molti altri dispositivi di calcolo neuromorfici in fase di
sviluppo.

le Scienze 14 I quaderni
L’elefante
nella stanza
dell’apprendimento
automatico

© Eric Nyquist for Quanta Magazine

Una "trappola" visiva ha rivelato un punto debole dei sistemi di intelligenza artificiale: di fronte a un
elemeno incongruo - l’improvvisa comparsa della figura di un elefante all’interno di un soggiorno -
hanno smesso di identificare correttamente gli elementi dell’immagine da analizzare perché non
sono capaci di tornare indietro e dare una seconda occhiata

di Kevin Hartnett
Uno a zero per il cervello umano. In un nuovo studio, gli il sistema perdesse la bussola: improvvisamente, ha
esperti di computer science hanno scoperto che i sistemi iniziato a chiamare "divano" una sedia  e l'elefante "sedia",
d'intelligenza artificiale falliscono un test di visione che diventando completamente cieco agli altri oggetti visti in
un bambino potrebbe superare con facilità. "È uno studio precedenza. [NdR: in inglese, l'espressione the elephant
intelligente e importante che ci ricorda che il deep learning in the room indica un problema evidente ma che tutti
non è così profondo", ha commentato Gary Marcus, fanno finta di non vedere. Lo studio, così come il titolo
neuroscienziato della New York University, che non era dell'articolo, gioca su questo doppio senso]
coinvolto nel lavoro.
"Succedono un sacco di cose strane che sottolineano la
Il risultato riguarda la visione artificiale, in cui i sistemi di fragilità degli attuali sistemi di rilevamento degli oggetti",
intelligenza artificiale tentano di rilevare e categorizzare ha dichiarato Amir Rosenfeld, della York University di
oggetti. Per esempio, trovare tutti i pedoni in una scena Toronto e coautore dello studio insieme al collega della
di strada, oppure distinguere un uccello da una bicicletta York John Tsotsos e a Richard Zemel dell’Università di
(che è un compito notoriamente difficile). La posta in gioco Toronto.
è alta: poiché ai computer sono demandati compiti critici
come la sorveglianza automatica e la guida autonoma, I ricercatori stanno ancora cercando di capire esattamente
desideriamo che la loro elaborazione visiva sia valida perché i sistemi di visione artificiale si confondano con
almeno quanto gli occhi umani che stanno sostituendo. tanta facilità, ma hanno una buona ipotesi. Riguarda una
capacità umana che manca all'IA: quella di capire quando
Non sarà facile. Il nuovo lavoro evidenzia il livello di una scena è confusa e quindi tornare indietro per dare una
sofisticazione della visione umana e quanto è ardua la sfida seconda occhiata.
di costruire sistemi che lo imitano.
L'elefante nella stanza
Nello studio, i ricercatori hanno presentato a un sistema di Quando apriamo gli occhi, registriamo quantità incredibili
visione artificiale la scena di un soggiorno, che il sistema di informazioni visive, che il cervello umano elabora
ha elaborato bene, identificando correttamente una sedia, senza problemi. "Apriamo gli occhi e tutto va a posto", ha
una persona, i libri su una mensola. Poi i ricercatori hanno detto Tsotsos. L'intelligenza artificiale, al contrario, crea
introdotto nella scena un oggetto anomalo: l'immagine le impressioni visive in modo laborioso, come se stesse
di un elefante. La presenza dell'elefante ha fatto sì che leggendo una descrizione in Braille: passa le punte delle

le Scienze 15 I quaderni
dita algoritmiche sui pixel, dando forma a rappresentazioni secondo prima sul ciglio della strada passava un tacchino.
sempre più complesse.
Per quanto riguarda l'elefante, la rete neurale si
Il tipo specifico di sistema IA che esegue questo processo è completamente confusa: a volte lo identificava
è detto rete neurale. Invia un'immagine attraverso correttamente, a volte lo chiamava "pecora", e a volte lo
una serie di strati, o livelli. A ciascun livello, i dettagli trascurava del tutto. "Se nella stanza ci fosse davvero un
dell'immagine – i colori e la luminosità dei singoli pixel – elefante, come esseri umani ce ne accorgeremmo", ha
lasciano il posto a descrizioni via via sempre più astratte commentato Rosenfeld. "Il sistema non ne ha nemmeno
di ciò che l'immagine ritrae. Alla fine del processo, la rete rilevato la presenza."
neurale produce una previsione ottimale di ciò che sta
guardando."Passa da un livello all'altro prendendo l'output
del livello precedente, elaborandolo e passandolo a quello
successivo, come in una catena di montaggio", ha detto
Tsotsos.

Le reti neurali sono adatte a specifici compiti visivi


e possono superare le prestazioni degli esseri umani
in compiti limitati, come suddividere gli oggetti nelle
categorie giuste, per esempio attribuire ai cani la loro
razza. Questi successi hanno fatto nascere l'aspettativa che
i sistemi di visione artificiale diventino presto abbastanza
bravi da guidare un'auto per le strade affollate di una città.

Ma hanno anche spinto i ricercatori a testarne le


vulnerabilità. Negli ultimi anni ci sono stati vari attacchi Una delle immagini usate nel corso dello studio (Cortesia Amir Rosenfeld)
cosiddetti antagonistici (adversarial attacks), in cui
i ricercatori escogitano scenari per far fallire le reti Tutto è collegato a tutto
neurali. In un esperimento, per esempio, gli esperti di Quando noi esseri umani vediamo qualcosa di inaspettato,
computer science hanno ingannato una rete neurale diamo "una seconda occhiata". Questo comune modo di
facendole scambiare una tartaruga per un fucile. In un dire ha reali implicazioni cognitive, e spiega perché le reti
altro, i ricercatori hanno teso un'imboscata a una rete neurali falliscono quando le immagini si fanno bizzarre.
neurale collocando l'immagine di un tostapane dai colori
psichedelici accanto a oggetti ordinari come una banana. Le migliori reti neurali di oggi per il rilevamento degli
oggetti funzionano in modalità feed-forward, vale a dire
Questo nuovo studio aveva lo stesso spirito. I tre che le informazioni fluiscono attraverso di esse in un'unica
ricercatori hanno sottoposto a una rete neurale la scena direzione. Iniziano con un input di pixel a grana fine,
di un soggiorno: un uomo seduto sul bordo di una sedia quindi si spostano su curve, forme e scene, con la rete che
consunta si sporge in avanti mentre gioca a un videogioco. a ogni passo del percorso formula l'ipotesi migliore su ciò
Dopo aver processato la scena, la rete neurale ha rilevato che vede. Di conseguenza, osservazioni sbagliate all'inizio
correttamente un certo numero di oggetti con molta del processo finiscono per contaminarne la conclusione,
sicurezza: una persona, un divano, un televisore, una quando la rete neurale raggruppa insieme tutto ciò che
sedia e alcuni libri. Poi i ricercatori hanno introdotto un pensa di conoscere per fare una congettura su ciò che sta
oggetto incongruo: l'immagine di un elefante visto di tre guardando. "Nel livello superiore della rete neurale tutto è
quarti. La rete neurale ha iniziato a confondere i suoi pixel. collegato a tutto, per cui ogni elemento in ogni posizione ha
In alcune prove, l'elefante ha portato la rete neurale a la possibilità di interferire con ogni possibile risultato", ha
identificare erroneamente la sedia come un divano; in altre, affermato Tsotsos.
ha trascurato gli oggetti, come la fila di libri, che prima
aveva rilevato correttamente. Questi errori si sono verificati Il metodo umano funziona meglio. Mettiamo di vedere per
anche quando l'elefante era lontano dagli oggetti sbagliati. breve tempo un'immagine con un cerchio e un quadrato,
uno colorato di blu e l'altro di rosso. Successivamente ci
Abbagli di questo genere hanno implicazioni inquietanti viene chiesto di dire di che colore era il quadrato. Avendo
per la guida autonoma. Un computer non può guidare dato una sola occhiata, è possibile confondere i colori
un'auto se rischia di non vedere un pedone perché un delle due forme. Ma è anche probabile che ci accorgiamo

le Scienze 16 I quaderni
di esserci confuso e che chiediamo di vederle ancora. E, Importanti ricercatori di ogni parte del mondo però
questo è un punto cruciale, quando diamo la seconda ci stanno comunque provando, e chiedono rinforzi. A
occhiata sappiamo concentrare la nostra attenzione solo settembre, Google AI ha annunciato un concorso per
sul colore del quadrato."Il sistema visivo umano dice: 'Non classificatori di immagini in grado di affrontare attacchi
ho ancora la risposta giusta, quindi devo tornare indietro antagonistici. A vincere sarà la proposta che saprà
per vedere dove ho sbagliato'", ha detto Tsotsos, che ha distinguere inequivocabilmente tra l'immagine di un
sviluppato una teoria chiamata tuning selettivo che spiega uccello e l'immagine di una bicicletta. Sarebbe un primo
questa caratteristica della cognizione visiva. passo modesto, ma necessario.

La maggior parte delle reti neurali non ha questa (L'originale di questo articolo è stato pubblicato il
capacità di tornare indietro. È un elemento difficile da 20 settembre 2018 da QuantaMagazine.org, una
progettare. Un vantaggio delle reti feed-forward è che sono pubblicazione editoriale indipendente online promossa
relativamente semplici da addestrare: devono elaborare dalla Fondazione Simons per migliorare la comprensione
un'immagine attraverso sei livelli e ottenere una risposta. pubblica della scienza.)

www.lescienze.it, 3 ottobre 2018

Un esempio di analisi dell’immagine del primo livello di una rete neurale, che reagisce
a caratteristiche di base, come i bordi e l’orientamento degli oggetti (© Zachi Evenor/
Google)

Ma se le reti neurali devono avere la libertà di fare un


doppio tentativo, avranno bisogno di una comprensione
sofisticata di quando attingere a questa nuova capacità
(quando guardare due volte) e quando proseguire in
feed-forward. I cervelli umani passano senza soluzione
di continuità tra questi diversi processi; le reti neurali
avranno bisogno di un nuovo quadro teorico prima di poter
fare lo stesso.

le Scienze 17 I quaderni
Scritture artificiali

© David Dear/Getty Images

Raccontare storie è sempre stata considerata una prerogativa umana, ma oggi le macchine stanno
imparando a scrivere, influenzando giornalismo, politica e letteratura

di Leonardo De Cosmo

Siete sicuri che l’articolo che state per leggere sia stato automobili a guida autonoma. Molto più raramente la si
scritto da un essere umano? accosta allo storytelling», spiega Joseph Sassoon, docente
Iniziava più o meno così un recente articolo pubblicato sul di brand storytelling all’Università di Pavia. Sceneggiatori,
sito di «Forbes» e il motivo era semplice: accendere una giornalisti, scrittori, responsabili marketing e persino
luce su quel che sta avvenendo sotto il nostro naso e che politici stanno iniziando a conoscere da vicino sistemi di AI,
potrebbe non solo cambiare la nostra vita, ma alterare per e chi non lo ha ancora fatto (al momento la maggioranza)
sempre l’immagine che l’uomo ha costruito di se stesso. sarà destinato a farlo presto. In altre parole, tutti quelli che
Il fenomeno è l’arrivo delle macchine in una delle ultime hanno a che fare con lo scrivere storie dovranno, presto o
esclusive umane: la scrittura. tardi, fare i conti con la tecnologia. Ovviamente questo non
significa che gli scrittori faranno la fine degli ascensoristi
Da sempre la capacità di raccontare storie viene sostituiti dall’arrivo delle pulsantiere. Ma, come nella
considerata una prerogativa di Homo sapiens, ma musica, dove un’enorme trasformazione è già in atto da
l’irruzione di una nuova «specie» sta facendo vacillare diversi anni, anche l’arte di chi scrive si prepara a grandi
anche questa convinzione. A incrinare l’intimo rapporto sconvolgimenti.
esistito fino a oggi tra noi e la narrazione sono gli incredibili
e recenti successi delle intelligenze artificiali, le cosiddette In principio furono i bot
AI, perché ormai le macchine hanno imparato a scrivere (e Forse l’ambito dello storytelling in cui l’ingresso delle
bene) e stanno iniziando a rivoluzionare silenziosamente AI ha attirato le maggiori attenzioni dei media è quello
ogni ambito dello storytelling, dalla comunicazione politica relativo ai bot che producono informazione sui social. In
alla letteratura. realtà, spesso i bot sono produttori di disinformazione, e
il loro campo da gioco è soprattutto Twitter in occasione
«Generalmente quando si parla di intelligenza artificiale delle campagne elettorali. A fare da apripista ai sistemi
si tende ad associarla a sfide “tecnologiche”, come le automatici di generazione di tweet nel dibattito politico

le Scienze 18 I quaderni
sono state le elezioni presidenziali statunitensi vinte da da sistemi automatici. Il fenomeno ha avuto particolare
Donald Trump. rilievo in Italia, dove si è registrata la più alta percentuale
Da allora l’importanza dei bot è andata crescendo. di bot in azione, quasi tutti impegnati per lo più nel far
«Si tratta di software che producono in modo semi- rimbalzare gli hashtag della Lega.
autonomo tweet e testi di natura politica tesi a influenzare
l’elettorato», spiega Sassoon. «Il problema è che raramente Mettendo da parte gli aspetti politici, le ultime elezioni
si tratta di testi innocenti, si tratta spesso di fake news europee hanno confermato una tendenza mondiale:
e non siamo quasi mai in grado, se non dopo complesse l’ingresso di software, anche se probabilmente non così
analisi, di capire se i contenuti che producono siano sofisticati da essere elevati a vere e proprie AI, all’interno
generati da persone o da macchine». dei meccanismi della narrazione politica.
Al momento il ruolo delle macchine somiglia più a quello
Il caso dei bot politici è esploso sui media quando diverse degli attacchini dei cartelloni elettorali che a quello degli
inchieste giornalistiche hanno messo in luce come spin doctor, ma il loro arrivo ha rapidamente scompigliato
queste campagne ricevano grandi finanziamenti da le regole del gioco e buona parte dei partiti «storici» si è
paesi considerati in qualche modo rivali, come la Russia. fatta travolgere dall’arrivo di questa nuova, sconosciuta,
e il dibattito si è concentrato sul «come», piuttosto cavalleria.
che sul «cosa». A suscitare timori è stata non tanto la  
conferma che i social influenzino il voto dei cittadini più Politici e scienziati artificiali
di quanto non facciano i mezzi di informazione standard, Il «lavoro sporco» dei bot è solo una parte delle
quanto la scoperta che i pionieri in questa tecnologia di potenzialità delle AI, e Sassoon, nel suo libro Storytelling
«manipolazione» siano paesi ostili, o presunti tali. Dopo la e intelligenza artificiale, cerca di raccogliere e fare
Brexit e le elezioni politiche israeliane è poi arrivato anche ordine tra le moltissime sperimentazioni in corso. Tra
il turno delle elezioni europee. queste cita il lavoro di Valentin Kassarnig, dell’Università
del Massachusetts ad Amherst, che ha messo a punto
un bot cui ha dato in pasto un corpus di 4000 discorsi
politici tenuti al Congresso, selezionando 50.000 frasi di
Democratici e Repubblicani.

Il software funziona cercando di prevedere tutte le parole


che possano seguire le cinque precedenti, calcolando le
probabilità di ognuna di esse. L’algoritmo ha imparato da
queste sequenze, diventando capace di produrre discorsi
politici da solo, naturalmente differenziabili in base al
partito di preferenza. «A pensarci bene, nella politica
corrente molti discorsi di questo tipo si assomigliano,
ripetono frasi fatte e sono di rado pregni di significato e di
emozione. Dopo tutto non stupisce che una macchina possa
emularli», commenta Sassoon. Nel ruolo di ghost writer le
AI sono agli inizi, ma è interessante capire se saranno mai
capaci di comporre testi in grado di segnare la storia come
l’Ich bin ein Berliner pronunciato nel 1963 da Kennedy in
visita a Berlino Ovest.

Se ancora in pochi scommettono sul futuro di una


Durante la campagna elettorale per le presidenziali vinte da Donald Trump sono stati politica a braccetto con le AI, sull’ingresso delle macchine
largamente impiegati sistemi automatici di generazione di tweet (© Eric Baradat/AFP/
Getty Images) nella scrittura di tematiche complesse, in cui risulta
fondamentale elaborare e confrontare un gran numero di
Un’analisi firmata da alcuni ricercatori dell’Università dati e riferimenti, il destino sarà più prevedibile.
dell’Arizona aderenti a Autonomous Disinformation
Research Network, un collettivo che si batte contro la Se i bot produttori di fake news possono ancora essere
disinformazione in rete, evidenziava come il 12 per cento visti come un fenomeno marginale, tutt’altro impatto ha
dei tweet contenenti hashtag per promuovere il voto verso suscitato l’annuncio, nell’aprile di quest’anno, del primo
partiti di estrema destra fosse chiaramente stato generato libro di chimica scritto da una macchina. A dare peso alla

le Scienze 19 I quaderni
Il caso di GPT2

Si chiama GPT2, e secondo i suoi trarre beneficio. Ma a detta di politiche. Il sistema è anche in grado
autori rilasciarne pubblicamente il chi ha potuto testarne in pieno le di elaborare riassunti o rispondere
codice sarebbe troppo pericoloso. capacità GPT2 è uno strumento a domande di comprensione del
Non stiamo parlando di una incredibilmente potente, addirittura testo e, anche se non riesce ancora
bomba, di un aereo o di un robot, troppo. In sostanza, GPT2 è un a farlo allo stesso livello degli esseri
ma di un «semplice» generatore sistema in grado di scrivere testi umani, per i ricercatori è comunque
automatico di testi. GPT2, un a partire da una frase iniziale, scattato un allarme. Il timore
acronimo che sta per seconda di cui analizza stile e qualità di è che troppo facilmente GPT2
versione di Generative Pretrained scrittura, riuscendo ad adattarsi potrebbe inondare il Web di finte
Transformer, è un sistema di AI non solo all’argomento, ma anche recensioni o fake news così perfette
sviluppato all’interno dei laboratori ai tratti espressivi dell’autore. Se da non essere individuabili come
di OpenAI, un’organizzazione no- gli si fornisce qualche riga di un falsi. In più, il software potrebbe
profit di ricerca nata dai contributi romanzo il sistema può proseguire fare da «addestratore» per lo
economici di Elon Musk e altri perfettamente sulla falsariga sviluppo di nuovi software in mano
importanti nomi della Silicon dell’autore umano, oppure se gli a malintenzionati per operare
Valley con lo scopo di promuovere e si danno informazioni sulla Brexit attacchi informatici su larga scala
sviluppare un’intelligenza artificiale elabora perfetti articoli giornalistici contro sistemi bancari o militari.
amichevole da cui l’umanità possa con tanto di citazioni e analisi

notizia è stato il nome dell’editore: Springer Nature, la delle macchine calcolatrici nella prima metà dell’Ottocento.
potente casa editrice accademica che tra le tante riviste In sintesi, programmazione e computazione sono il regno
pubblica «Nature». Scritto dall’algoritmo Beta Writer, della noiosa necessità: le istruzioni della macchina sono
sviluppato dai ricercatori della Goethe-Universität di ripetizioni meccaniche del già noto e mai produrranno
Francoforte, il libro è un manuale che fa il punto della qualcosa di originale e inimmaginato. È certamente una
situazione sulle numerosissime pubblicazioni scientifiche posizione ragionata e argomentata, ma che sempre più è
apparse negli ultimi anni sul tema delle batterie agli ioni posta in questione alla luce dell’evoluzione contemporanea
di litio. Usando i dati disponibili sui database dell’editore, e, in particolare, delle macchine che “apprendono
Beta Writer ha analizzato le pubblicazioni sul tema per dall’esperienza”, come si dice con un’espressione
organizzarle in maniera coerente. Ha scritto brevi sintesi sintetica».
dei paper ed estratto citazioni e referenze per aiutare il
lettore a orientarsi nel tema. Ma oggi le macchine sono diventate sempre più evolute
e potenti, sono in grado di ricercare schemi, interpretare
«Questo prototipo è una prima pietra miliare – ha sentimenti, leggere contesti e produrre contenuti ex
commentato Henning Schoenenberger, direttore di novo che emulano praticamente qualsiasi stile prodotto
Product Data & Metadata Management di Springer Nature dall’uomo. «Gli algoritmi di deep learning e le reti neurali
– e confidiamo che possa dare il via a un dibattito su artificiali – prosegue Accoto, i cui studi sono focalizzati sui
opportunità, implicazioni, sfide e potenziali rischi dovuti a temi legati a filosofia del codice e intelligenza artificiale
contenuti per studenti generati da macchine». – ci sollecitano a rivedere i nostri vecchi preconcetti
  sulla computazione per cominciare ad apprezzare, delle
Le AI diventano creative macchine, non solo la ricorsività ma anche la contingenza e
Nonostante questi successi, in cuor nostro siamo tutti l’apertura al nuovo e all’inaspettato».
(o quasi) convinti che le macchine non potranno mai
uguagliare la nostra creatività. Significativo in tal senso è quanto avvenuto al Nikkei Hoshi
«Storicamente l’AI ha privilegiato la dimensione della Shinichi Literary Award, un concorso giapponese per
conoscenza più che quella dell’apprendimento, e così racconti di fantascienza. Il premio è aperto ad autori umani
in molti ritengono che creatività e computazione siano e non, e nel 2016 per la prima volta un testo prodotto da
antitetiche», spiega Cosimo Accoto, filosofo e ricercatore una macchina ha superato la prima selezione tra oltre
al MIT di Boston. «È una posizione consolidata a partire 1000 candidati alla vittoria, ottenendo ottimi riscontri
da Ada Lovelace, figlia del poeta George Byron e pioniera dalla critica. Va detto, d’altra parte, che il computer-

le Scienze 20 I quaderni
Chi ha paura delle macchine?

L’incubo si chiama «singolarità scienziati e personaggi pubblici. parte della comunità scientifica ha
tecnologica», ed è l’ipotetico Secondo questi, considerati i preso posizioni così nette, e sono in
momento in cui lo sviluppo delle progressi nel settore dell’AI sarebbe molti a non credere alla possibilità
tecnologie diventerà incontrollabile difficile escludere la possibilità, di uno sviluppo incontrollabile
e non più reversibile, finendo per entro pochi decenni, della nascita dell’AI. A ogni modo, nel 2015
mettere in pericolo l’esistenza della di una superintelligenza artificiale centinaia di ricercatori hanno
civiltà umana. Si tratta di uno che potrebbe rapidamente pubblicato una lettera aperta sul
scenario apocalittico che ha fatto soggiogare la specie umana. Tra sito del Future of Life Intitute, dove
la fortuna di decine di libri e film gli apocalittici spiccano i nomi di si invitano istituzioni e ricercatori
di fantascienza, da Stanislav Lem Stephen Hawking, il fisico teorico a non distogliere l’attenzione dalle
e Isaac Asimov arrivando a 2001: recentemente scomparso, ed Elon implicazioni etiche, in particolare
Odissea nello spazio e Matrix. Ma a Musk, fondatore di Tesla e SpaceX, nel mantenere sempre il controllo
ritenere estremamente pericolosa che più volte hanno dichiarato umano nella progettazione di
l’accelerazione repentina dello pubblicamente che la gestione dello macchine disegnate per uccidere.
sviluppo dell’intelligenza artificiale sviluppo dell’AI sarà la più grande
adesso sono anche molti importanti sfida per l’umanità. Ma solo una

autore di questo racconto, dal titolo The Day a Computer e non sappiamo quali saranno i limiti». A dimostrare
Writes a Novel, era stato seguito da vicino da un team di quanto sia «pericoloso» sottostimare il potenziale di
ricercatori e dallo scrittore Hitoshi Matsubara. Pur non crescita delle macchine è quanto avvenuto nel campo di
essendo, dunque, un prodotto integralmente generato dalle giochi come gli scacchi e il Go, considerati fino a poco fa di
macchine, ha segnato un traguardo impensabile fino a esclusivo dominio umano.
pochissimi anni fa.
Il caso più clamoroso è la vittoria di una macchina su
Dall’esordio della macchina-scrittore sono passati appena Lee Sedol, il campione mondiale coreano di Go. «Per
tre anni, e i progressi fatti nel settore della creatività sono battere il pluricampione, AlphaGo ha dovuto impiegare
stati rapidissimi. Chi crede che si tratti di opere di bassa non solo forza di calcolo bruta (come era accaduto con la
qualità destinate solo ad alimentare l’ego dei ricercatori sconfitta a scacchi di Kasparov da parte di IBM Deep Blue
nerd si sbaglia. Basta leggere il pluripremiato 1 the Road vent’anni fa), ma capacità computazionale di inventiva e
(in vendita on line a 24 euro dopo oltre un anno dalla sua immaginazione», ha aggiunto Accoto. «AlphaGo è riuscito
uscita). A idearlo è stato lo statunitense Ross Goodwin, a inventarsi una mossa, diventata famosa come “mossa 37”,
che ha equipaggiato una Cadillac con telecamere, GPS e che nessun umano aveva osato fare, rompendo le regole
microfono e collegato il tutto a una macchina che ha usato canoniche di gioco».
i dati come input per la sua storia. Ross, la Cadillac e l’AI
hanno viaggiato insieme da New York a New Orleans, e
dalla loro esperienza di viaggio è nato il romanzo. Una sorta
di On the road generato dalla macchina in tempo reale che
ha ricevuto apprezzamenti da critici e pubblico.
 
Una crescita senza fine?
«È un dato di fatto che le macchine sono ancora lontane
dal raggiungere l’intelligenza umana», commenta Sassoon.
«Hanno ancora alcune gravi lacune: non hanno la nostra
esperienza del mondo, non provano emozioni e non
hanno morale. Tre aspetti che fanno la differenza ma allo
stesso tempo non dobbiamo sottovalutare che le AI sono
appena nate e avranno ancora molto tempo per crescere.
L’intelligenza umana è quella che è, non può crescere Il campione di Go Lee Sedol partecipa a una conferenza stampa dopo essere stato
molto, quella artificiale sta invece facendo salti rapidissimi, battuto dal programma AlphaGo (© Xinhua/Photoshot / AGF)

le Scienze 21 I quaderni
Sulle prime gli esperti l’avevano giudicata un errore della
macchina. Invece era una sbalorditiva mossa creativa,
mai vista e soprattutto vincente. «Con questa capacità –
prosegue Accoto – la macchina ha vinto quattro partite su
cinque. Ora dovremo riscrivere i manuali di gioco. Certo, il
gioco non esaurisce le dimensioni della creatività, che sono
anche artistiche, scientifiche e più ampiamente culturali
e sociali, ma è un elemento su cui riflettere. Con la stessa
logica generativa inumana si stanno creando oggetti di
design, farmaci e cure con nuove combinazioni chimiche,
cortometraggi e trailer cinematografici, per citare solo
alcuni esempi».

Heliograf, la piattaforma di intelligenza artificiale sviluppata dal “Washington Post”, fa


Qualunque sarà il destino degli scrittori umani, a oggi le arrivare gli articoli di cronaca locale ai residenti della zona giusta (© Billy Bennight/The
macchine sono già entrate in alcune delle più importanti Photo Access/AGF)
redazioni giornalistiche. Cyborg, Bertie e Heliograf sono
i nomi dei più famosi robot reporter in circolazione e Ma l’avvento delle macchine nel dominio della scrittura
lavorano rispettivamente per Bloomberg, «Forbes» e creativa pone anche questioni filosofiche sul senso stesso
«Washington Post». dell’essere umano. «L’arrivo di una nuova “specie” sul
pianeta sta producendo spaesamento e, di conseguenza,
Il software usato da Bloomberg è in grado di aiutare i la necessità e la difficoltà di ridefinire e reimmaginare che
giornalisti nello scrivere migliaia di articoli sui rapporti cosa significa essere umani. Ci siamo sempre definiti in
economici delle società quotate in borsa e si stima che circa relazione e in distinzione rispetto ad altre vite, vegetali o
un terzo dei contenuti pubblicati da «Bloomberg News» animali che fossero. Ora tocca alle nuove “vite” macchinali
usi qualche forma di tecnologia automatizzata. Heliograf che stiamo educando», conclude Accoto. «Siamo partiti
invece è specializzato nel promuovere gli articoli giusti, dall’insegnare loro le formule logiche, siamo passati ai
nei posti giusti, alle persone giuste. Una tecnica detta di giochi e ora stiamo arrivando alle storie».
geotargeting, ossia dare le notizie locali in particolare a chi
si trova in quella specifica area. Per la cronaca, a scrivere l’articolo di «Forbes» era stato un
umano, e più precisamente la giornalista Nicole Martin.
Si tratta di strumenti pensati per facilitare il lavoro dei Così come è stato un umano a produrre il testo che avete
giornalisti che, a detta dei manager, avranno così più tempo appena letto.
per dedicarsi a lavori di approfondimento. «Forse pochi
anni fa le AI erano tecnologie brillanti usate dalle società MIND, n.178, ottobre 2019
hi-tech, ma ora stanno diventando una necessità. Credo che
molti strumenti del giornalismo saranno presto alimentati
dall’intelligenza artificiale», ha commentato sul «New
York Times» Francesco Marconi, capo del settore ricerca e
sviluppo del «Wall Street Journal».
 
Cosa resta all’uomo
Che sia in politica, nel giornalismo o in letteratura, è un
dato di fatto che attualmente le AI per esistere abbiano
bisogno di essere nutrite dall’intelligenza umana, ma
il futuro porta con sé molti interrogativi. «A oggi e per
qualche tempo ancora – spiega Accoto – avremo contesti
d’intelligenza ibrida, macchine in congiunzione con
umani. Ma se stiamo costruendo macchine che imparano
in autonomia dall’esperienza anche in modalità a noi
poco comprensibili, bisognerà capire quanto e se l’umano
rimarrà in-loop o, viceversa, verrà lasciato out-of-loop. E
cioè qual è il grado di controllo e di verifica che dovremo e
potremo esercitare».

le Scienze 22 I quaderni
Il programma autodidatta
che vince giochi complessi

© Stefan Rupp/iStockphoto

A differenza di altri programmi di intelligenza artificiale, AlphaZero è in grado di raggiungere livelli da


campione non in uno ma in più giochi da tavolo complessi, come scacchi, shogi e Go. E lo fa senza
partire da una strategia casuale e senza alcuna conoscenza preliminare

Un nuovo programma di intelligenza artificiale (IA) è in Uno dei tradizionali banchi di prova dell'IA sono i giochi da
grado di raggiungere livelli da campione in diversi giochi tavolo che si basano sull'intelligenza dei giocatori, come gli
da tavolo, come il Go, gli scacchi e il gioco di strategia shogi scacchi. Un primo grande successo ci fu nel 1997, quando
(noto anche come scacchi giapponesi), conoscendo soltanto Deep Blue sconfisse il campione del mondo di scacchi
le regole del gioco e imparando solo grazie a una serie di umano in carica. Da allora i programmi di gioco sono
allenamenti in cui gioca contro se stesso. migliorati sempre di più e i programmatori hanno iniziato
a confrontarsi con giochi in cui l'albero delle possibili scelte
Il programma, chiamato AlphaZero, è stato messo a punto strategiche è ancora più complesso, come il Go e lo shogi,
dalla DeepMind, la società  britannica di informatica ottenendo anche in questi casi risultati sempre migliori.
acquisita nel 2014 da Google, che aveva dato prova di sé
sviluppando AlphaGo, che nel 2016 era riuscito a battere Tuttavia, i programmi avevano ancora un limite rispetto ai
il campione europeo umano di Go. Le sue caratteristiche giocatori umani: per l'apprendimento e per l'elaborazione
sono descritte in un articolo a prima firma David Silver delle strategie sfruttavano un insieme di strategie di base,
pubblicato su "Science". Ciò che distingue in modo unico specifiche di ciascun gioco, fornite dagli sviluppatori. In
AlphaZero dagli software simili - compreso AlphaGo Zero, sostanza, per quanto quanto la tecnica di gioco di questi
un'evoluzione di AlphaGo in grado anch'esso di migliorare algoritmi si arricchisse sempre di più, fino ad arrivare ai
le proprie capacità di gioco - è la sua capacità di cimentarsi massimi livelli umani e magari anche a superarli, sotto
non con un gioco specifico, ma con più giochi. sotto c'era sempre lo zampino dell'intelligenza.

le Scienze 23 I quaderni
AlphaZero supera proprio questo limite: grazie a una
versione ancora più sofisticata di apprendimento profondo,
non ha bisogno di partire da un'indicazione umana, ma gli
basta conoscerne le regole di base del gioco.

Qualche limite AlphaZero però ce l'ha ancora. Il primo


è la potenza di calcolo di cui ha bisogno, corrispondente
a quella di un grande supercomputer. Ma c'è un altro
limite, più interessante, segnalato da Murray Campbell,
uno dei progettisti di Deep Blue, in una nota di commento
all'articolo.

Per quanto complessi, scacchi Go e shogi prevedono due


soli giocatori, sono giochi a somma zero (il guadagno o
la perdita di un giocatore corrisponde esattamente alla
perdita o al guadagno dell'altro), sono deterministici, sono
discreti (una mossa viene fatta o no, non esistono casi
intermedi) e tutto il "campo di battaglia" è perfettamente
osservabile. Caratteristiche, queste, che ben si adattano a
un'analisi da parte dei sistemi di IA attualmente esistenti.

La prossima sfida dell'intelligenza artificiale sarà quindi


sviluppare programmi in grado di cimentarsi con giochi
che non rispettano una o più di queste condizioni. (red)

www.lescienze.it, 7 dicembre 2018

le Scienze 24 I quaderni
Non giocate
a poker contro
quell’intelligenza
artificiale

© Stefan Rupp/iStockphoto

Il programma Pluribus ha superato campioni umani nella versione del poker Texas hold’em a sei gio-
catori, dimostrando la sua abilità anche in giochi dove le informazioni sono incomplete e gli avversa-
ri possono bluffare

L’intelligenza artificiale non accenna a rallentare la sua umane nel ragionamento strategico si sono limitati alla
corsa verso traguardi importanti. Dopo le storiche vittorie competizione a due”, ha commentato Sandholm. “Si
a scacchi e al gioco da tavolo di origine cinese Go, ora è la aprono nuove opportunità di usare l’intelligenza artificiale
volta del Texas hold’em a sei giocatori senza limiti, la forma per risolvere una vasta gamma di problemi del mondo
di poker più popolare al mondo, come riferito in un articolo reale”. E come spesso accade in questo ambito di ricerche,
pubblicato su “Science”, firmato da Tuomas Sandholm e l’intelligenza artificiale non solo riproduce comportamenti
Noam Brown, ricercatori della Carnegie Mellon University umani perfezionati, ma usa anche strategie a cui i
e di Facebook AI Research. professionisti del gioco o i ricercatori non avevano pensato.

Il programma Pluribus, sviluppato da Sandholm e Brown, “È stato affascinante giocare a poker contro l’intelligenza
ha dimostrato le sue potenzialità battendo il professionista artificiale e vedere alcune strategie che ha scelto”, ha
Darren Elias, che detiene il record di titoli del World Poker commentato il campione di poker Michael Gagliano che
Tour, e Christopher Ferguson, vincitore di sei eventi delle ha partecipato alla seconda fase dei test. “Ho assistito a
World Series of Poker. In un’altra serie di test che ha diverse giocate che gli esseri umani semplicemente non
coinvolto 13 pokeristi professionisti, Pluribus ha giocato farebbero, per esempio in relazione al valore delle puntate:
10.000 mani contro cinque avversari alla volta, prevalendo i robot basati sull’intelligenza artificiale sono una parte
ancora. importante nell’evoluzione del poker, ed è stato incredibile
avere un’esperienza di prima mano in questo grande passo
Gli autori della pubblicazione sottolineano che scacchi verso il futuro.” (red)
e Go sono stati importanti per la storia dell’intelligenza
artificiale, ma che si tratta di giochi a informazione www.lescienze.it, 12 luglio 2019
completa, perché i giocatori conoscono in ogni momento
la posizione dei pezzi sul tavolo. Il poker rappresenta una
sfida ancora più ardua perché è a informazione incompleta:
i giocatori non possono sapere con certezza quali carte sono
in gioco e gli avversari possono bluffare.

Superare gli esseri umani in una mano di poker


contro diversi giocatori è dunque una pietra miliare
nell’intelligenza artificiale e nella teoria dei giochi.
“Finora, i traguardi di superamento delle capacità

le Scienze 25 I quaderni
L’intelligenza
artificiale a caccia
della selezione
naturale

Separazione di frammenti di DNA per elettroforesi attraverso un gel di agarosio (© Guy


Tear/Wellcome Collection/CC BY 4.0)

Gli scienziati stanno usando algoritmi di intelligenza artificiale, in particolare l’apprendimento auto-
matico chiamato deep learning, per identificare le sequenze genetiche che portano impressa la firma
della pressione selettiva che ha operato durante l’evoluzione degli esseri umani

di Amy Maxmen
Individuare dove e come si sta evolvendo il genoma umano A partire dagli anni settanta, i genetisti hanno creato
può essere come cercare un ago in un pagliaio. Il genoma modelli matematici per descrivere l’impronta digitale della
di ogni persona contiene tre miliardi di mattoni elementari selezione naturale sul DNA. Se emerge una mutazione
chiamati nucleotidi, e i ricercatori devono raccogliere dati che rende una persona più capace di sopravvivere e di
da migliaia di persone per scoprire schemi che segnalano generare prole rispetto ai suoi vicini, la percentuale della
come i geni siano stati plasmati dalle pressioni evolutive. popolazione con quella variante genica crescerà nel tempo.
Per trovare questi modelli, un numero crescente di
genetisti si sta rivolgendo a una forma di apprendimento Un esempio è la mutazione che dà a molti adulti la capacità
automatico chiamato deep learning. di bere latte vaccino. Permette al corpo di produrre lattasi,
un enzima che digerisce lo zucchero nel latte, in età
I sostenitori dell’approccio affermano che gli algoritmi di adulta. Analizzando i genomi umani con metodi statistici,
deep learning incorporano meno ipotesi esplicite su come i ricercatori hanno scoperto che la mutazione si diffuse
dovrebbero apparire le firme genetiche della selezione rapidamente attraverso le comunità in Europa migliaia di
naturale rispetto ai metodi statistici convenzionali. anni fa, presumibilmente perché i nutrienti contenuti nel
latte vaccino aiutavano le persone a generare bambini sani.
“L’apprendimento automatico sta automatizzando la Oggi, quasi l’80 per cento delle persone di discendenza
capacità di fare inferenze evolutive”, spiega Andrew Kern, europea ha questa variante.
genetista di popolazioni dell’Università dell’Oregon a
Eugene. “Non c’è dubbio che stia facendo progredire Campo di addestramento
le cose.” Uno strumento di deep learning chiamato Tuttavia i genetisti hanno faticato a identificare e a
DeepSweep, sviluppato dai ricercatori del Broad Institute confermare altri frammenti specifici del genoma che si
del Massachusetts Institute of Technology e della Harvard sono diffusi tra le popolazioni perché hanno fornito un
University, ha contrassegnato 20.000 singoli nucleotidi vantaggio adattativo. Il deep learning eccelle proprio in
per ulteriori studi. Alcune o tutte queste semplici mutazioni questo tipo di compito: scoprire schemi sottili nascosti in
potrebbero aver aiutato gli esseri umani a sopravvivere a grandi quantità di dati.
malattie, siccità o a quello che Charles Darwin chiamava
“condizioni di vita”, come hanno riferito i ricercatori nei Ma c’è un problema. Gli algoritmi di deep learning spesso
mesi scorsi, all’incontro annuale dell’American Society of imparano a classificare le informazioni dopo essere stati
Human Genetics a San Diego, in California. addestrati con l’esposizione a dati reali; Facebook, per

le Scienze 26 I quaderni
esempio, prepara gli algoritmi a riconoscere i volti sulla A febbraio, Ramachandran e colleghi hanno riferito di
base di immagini che le persone hanno già etichettato. aver sviluppato un algoritmo di deep learning, chiamato
Poiché non sanno ancora quali parti del genoma sono SWIF(r). Quando lo hanno applicato ai genomi di 45
plasmate dalla selezione naturale, i genetisti devono membri del gruppo etnico Khomani San dell’Africa
addestrare i loro algoritmi di deep learning su dati simulati. meridionale, ha contrassegnato le variazioni vicine ai geni
associati al metabolismo. I ricercatori ipotizzano che i
La generazione di questi dati simulati richiede che i cambiamenti possano essersi verificati migliaia di anni fa e
ricercatori definiscano come dovrebbe apparire la firma che abbiano aiutato i membri del gruppo a immagazzinare
della selezione naturale, spiega Sohini Ramachandran, grasso durante le fasi di scarsa disponibilità di cibo. Gli
genetista di popolazioni alla Brown University di effetti delle mutazioni devono ancora essere testati. Ma
Providence, in  Rhode Island. “Non abbiamo disponibili come per le varianti identificate da DeepSweep, i candidati
dati veri, quindi la preoccupazione è di non poter simulare individuati da SWIF(r) forniscono ai ricercatori un punto di
correttamente”. E poiché gli algoritmi di deep learning partenza.
funzionano come scatole nere, è difficile sapere quali criteri
usino per identificare gli schemi nei dati, afferma Philipp “Questi sono metodi incredibilmente potenti per cercare i
Messer, genetista della Cornell University a Ithaca, nello segnali di selezione naturale”, dice Pardis Sabeti, genetista
Stato di New York. “Se la simulazione è sbagliata, non è computazionale del Broad Institute e supervisore di
chiaro che cosa significhi la risposta”, aggiunge. dottorato di Vitti. “Alcune persone non pensavano di
poter individuare le varianti quando ho iniziato. Alcuni
I ricercatori che usano algoritmi di deep learning hanno pensavano che fosse impossibile”.
alcuni modi per sbirciare nella scatola nera. I creatori di
DeepSweep hanno addestrato il loro algoritmo su firme www.lescienze.it, 19 novembre 2018
della selezione naturale che hanno inserito in genomi
simulati. Quando lo hanno testato su dati reali sul genoma
umano, l’algoritmo ha puntato sulle mutazioni della lattasi
che permettono agli adulti di bere latte. Ciò ha rafforzato la
fiducia del gruppo nello strumento, afferma Joseph Vitti,
genetista computazionale del Broad Institute.

I ricercatori hanno poi setacciato i dati del 1000


Genomes Project, un’iniziativa internazionale che ha
sequenziato il DNA da 2504 persone in tutto il mondo,
usando un metodo statistico per identificare le regioni
che potrebbero essere sottoposte a pressioni evolutive.
Queste ammontano a circa un terzo dei tre miliardi di
mattoni elementari che compongono il genoma umano.
Successivamente, DeepSweep ha valutato ciascuna
regione. Alla fine dell’analisi, ha fornito una lista di 20.000
singole mutazioni da studiare. Nei prossimi mesi, Vitti e
colleghi indagheranno su che cosa fanno queste mutazioni
modificandole nel DNA delle cellule viventi e confrontando
quello che accade quando ci sono e quando non ci sono.

A caccia
Diversi altri ricercatori stanno addestrando algoritmi di
deep learning a cercare segni di adattamento nei genomi.
Un modello di deep learning sviluppato da Kern suggerisce
che, all’inizio, la maggior parte delle mutazioni nell’essere
umano non è né benefica né dannosa. Invece, sembrano
andare alla deriva nelle popolazioni, aumentando la
variabilità genetica naturale, e diventano più frequenti solo
quando un cambiamento nell’ambiente dà un vantaggio
evolutivo alle persone che hanno la mutazione.

le Scienze 27 I quaderni
L’apprendimento profondo
della biologia

© Andrew Brookes/AGF

Una tecnica di intelligenza artificiale fornisce un potente strumento per il rilevamento e la classifica-
zione dei dati biologici, e per lo sviluppo di modelli predittivi nel settore biomedico e in quello farma-
ceutico. Ma prima di poterla usare in modo esteso, i ricercatori devono vincere alcune sfide

di Sarah Webb
Quattro anni fa gli scienziati di Google hanno bussato addestramento per analizzare altri dati, a volte provenienti
alla porta del neuroscienziato Steve Finkbeiner. I da fonti differenti. La tecnica può essere usata per
ricercatori facevano parte di Google Accelerated Science, "affrontare problemi molto complicati, e può essere in
una divisione di ricerca di Mountain View, in California, grado di vedere una struttura in quantità di dati troppo
che mira a usare le tecnologie di Google per accelerare grandi e complesse per essere elaborate dal cervello
le scoperte scientifiche. Erano interessati ad applicare umano", dice Finkbeiner.
l'apprendimento profondo (deep learning) alle montagne
di dati di imaging generati dal gruppo di Finkbeiner Il gruppo di Finkbeiner produce valanghe di dati grazie a
al Gladstone Institute of Neurological Disease a San una strategia di imaging ad alta velocità detta microscopia
Francisco. robotizzata, sviluppata per lo studio delle cellule cerebrali.
Il gruppo però non era in grado di analizzare i dati alla
Gli algoritmi di apprendimento profondo acquisiscono stessa velocità con cui li acquisiva; così Finkbeiner ha
caratteristiche grezze da un insieme di dati estremamente accolto con favore l'opportunità di collaborare con Google.
ampio e classificato (come una raccolta di immagini o "Anni fa non avevo un'idea chiara di quali problemi poter
genomi), e le usano per creare uno strumento predittivo affrontare con l’apprendimento profondo, ma sapevo
basato su schemi sepolti nello stesso insieme di dati. che generavamo dati due o tre volte più velocemente
Una volta allenati, gli algoritmi possono usare questo di quanto li potessimo analizzare", dice. Oggi questi

le Scienze 28 I quaderni
sforzi iniziano a essere ripagati. Il gruppo di Finkbeiner
e gli scienziati di Google hanno creato un algoritmo di
apprendimento profondo usando due serie di cellule, una
marcata artificialmente per evidenziare le caratteristiche
che di norma gli scienziati non riescono a vedere, l'altra
non marcata. Quando in seguito l'algoritmo ha analizzato
immagini di cellule non marcate che non aveva mai visto
prima, dice Finkbeiner,"è stato sorprendentemente bravo
a prevedere quali avrebbero dovuto essere le marcature
per quelle immagini". Uno studio che illustra in dettaglio il
lavoro è in corso di pubblicazione.

Il successo di Finkbeiner evidenzia come l'apprendimento


profondo, uno dei rami più promettenti dell'intelligenza
artificiale, si stia facendo strada in biologia. Gli algoritmi Sezione di linfocita al microscopio elettronico (© SPL/AGF)
stanno già infiltrandosi nella vita moderna attraverso
smartphone, assistenti virtuali e automobili a guida Questo progresso nell'apprendimento delle macchine
autonoma. In biologia, gli algoritmi di apprendimento – la parte "profonda" – costringe i computer, non i loro
profondo si immergono nei dati in modi che gli esseri programmatori umani, a trovare le relazioni significative
umani non possono fare, rilevando caratteristiche che incorporate nei pixel e nelle basi nucleotidiche. I livelli
altrimenti potrebbero essere impossibili da rilevare. I della rete neurale filtrano e ordinano le informazioni, e
ricercatori usano gli algoritmi per classificare immagini contemporaneamente comunicano tra loro permettendo
di cellule, creare connessioni genomiche, anticipare la così a ciascun livello di perfezionare l'output del
scoperta di farmaci e addirittura trovare collegamenti tra precedente.
diversi tipi di dati, come la genomica e le immagini delle
cartelle cliniche elettroniche. Alla fine, questo processo permette a un algoritmo
addestrato di analizzare un'immagine nuova e di
Sul server di preprint bioRxiv ci sono oltre 440 articoli che identificarla correttamente come, per esempio, Charles
parlano di apprendimento profondo; PubMed elenca oltre Darwin o una cellula malata. Ma via via che i ricercatori si
700 riferimenti bibliografici nel 2017. Questi strumenti allontanano dagli algoritmi, non possono più controllare
stanno per diventare ampiamente disponibili a biologi e il processo di classificazione o addirittura spiegare con
ricercatori clinici. Ma gli scienziati devono affrontare delle precisione che cosa fa il programma. Anche se queste reti di
sfide per capire che cosa fanno questi programmi, e per apprendimento profondo possono essere incredibilmente
assicurarsi che non sbaglino. accurate nelle previsioni, dice Finkbeiner, "a volte è ancora
difficile capire che cosa vede la rete che le permette di fare
L’addestramento degli algoritmi intelligenti una previsione così buona".
Gli algoritmi di apprendimento profondo (si veda
l'illustrazione Deep thoughts) si basano su reti neurali, Tuttavia, molte sottodiscipline della biologia, tra
un modello computazionale proposto per la prima volta cui l'imaging, stanno raccogliendo i frutti di queste
negli anni quaranta, in cui strati di nodi neuronali imitano previsioni. Una decina di anni fa, il software per l'analisi
il modo in cui il cervello umano analizza le informazioni. automatizzata delle immagini biologiche si concentrava
Fino a cinque anni fa, gli algoritmi di apprendimento sulla misurazione di singoli parametri in un insieme di
automatico basati su reti neurali si affidavano ai ricercatori immagini. Per esempio, nel 2005 Anne Carpenter, biologa
per elaborare le informazioni grezze in una forma più computazionale del Broad Institute – una collaborazione
significativa prima di inserirle nei modelli, dice Casey fra Massachusetts Institute of Technology e Harvard
Greene, biologo computazionale all'Università della University – ha rilasciato un pacchetto software open
Pennsylvania a Filadelfia. source chiamato CellProfiler per aiutare i biologi a
misurare quantitativamente caratteristiche individuali: il
Ma l'esplosione delle dimensioni degli insiemi di dati – numero di cellule fluorescenti in un campo microscopico,
per esempio da fonti come le foto degli smartphone o il per esempio, o la lunghezza di un pesce zebra.
sequenziamento genomico su larga scala – e le innovazioni
algoritmiche hanno permesso agli esseri umani di fare un Ma l'apprendimento profondo permette al suo gruppo di
passo indietro. andare oltre. “Iniziamo a misurare cose che i biologi non si

le Scienze 29 I quaderni
Strumenti per immergersi in profondità

Gli strumenti di apprendimento potrebbero non avere bisogno biologico avvincente, grandi
profondo si stanno evolvendo di un cluster di computer nel quantità di dati di alta qualità,
rapidamente e per trarne vantaggio proprio istituto per sfruttare una loro classificazione attenta e
i laboratori avranno bisogno l’apprendimento profondo, una sfida che permetta agli esperti
di competenze computazionali potendo eseguire il calcolo di Google di fornire contributi
dedicate, di collaborazioni o di altrove. TensorFlow di Google, computazionali unici nel campo,
entrambe. Prima di tutto invitate una piattaforma open-source dice Dimon.
a pranzo un collega con esperienza per la costruzione di algoritmi Gli scienziati che desiderano
nel settore dell’apprendimento di apprendimento profondo, è sfruttare la velocità
profondo e chiedetegli se la disponibile su GitHub, un sito web dell’apprendimento profondo
strategia potrebbe essere utile, per la condivisione di software, dovrebbero controllare la deep
consiglia Finkbeiner. Con alcuni come lo è anche una versione review, una rassegna completa
insiemi di dati, per esempio quelli open-source di DeepVariant, dei problemi e delle applicazioni
di imaging, un programma già uno strumento per identificare in campo biomedico, diretta dal
disponibile potrebbe funzionare; accuratamente la variazione biologo computazionale Casey
per progetti più complessi, meglio genetica. Greene dell’Università della
considerare un collaboratore, dice. Google Accelerated Science Pennsylvania a Filadelfia, grazie
Workshop e incontri possono offrire collabora con una serie di scienziati anche al contributo di numerosi
opportunità di formazione. tra cui biologi, afferma Michelle colleghi.
L’accesso alle risorse di cloud Dimon, una delle sue ricercatrici.
computing significa che i ricercatori I progetti richiedono un problema

rendono neppure conto di voler misurare nelle immagini ", Life Sciences (già Google Life Sciences) a San Francisco.
dice. La registrazione e la combinazione di caratteristiche
visive come la colorazione del DNA, la consistenza degli I ricercatori di Verily – una consociata di Alphabet,
organelli e la qualità degli spazi vuoti in una cellula possono l'azienda madre di Google – hanno sviluppato uno
produrre migliaia di caratteristiche, ognuna delle quali strumento di apprendimento profondo che identifica
può rivelare nuove informazioni. La versione attuale di un tipo comune di variazione genetica, i cosiddetti
CellProfiler include elementi di apprendimento profondo, e polimorfismi a singolo nucleotide, con maggiore
il prossimo anno il suo gruppo vuole aggiungere strumenti precisione rispetto agli strumenti convenzionali. Chiamato
di apprendimento profondo più sofisticati. “La maggior DeepVariant, il programma traduce le informazioni
parte delle persone ha difficoltà a capirlo – dice Carpenter genomiche in rappresentazioni simili a immagini, che poi
– ma in una singola immagine di cellule c'è la stessa sono analizzate proprio come immagini.
quantità di informazioni, forse più grande in realtà, che in
un'analisi trascrittomica di una popolazione cellulare ".

Questo tipo di elaborazione permette a Carpenter di


adottare e sfruttare un approccio meno supervisionato per
tradurre le immagini delle cellule in fenotipi associati a
malattie. Carpenter è consulente scientifica di Recursion
Pharmaceuticals a Salt Lake City, nello Utah, che usa i suoi
strumenti di apprendimento profondo per malattie rare
legate a singoli geni con l'obiettivo di sviluppare farmaci.

Miniere di dati genomici


Non tutti i dati permettono di sfruttare l'apprendimento
profondo. Spesso il metodo richiede insiemi voluminosi e
ben calibrati. I dati di imaging sono ben adatti, come anche
i dati genomici. Un'azienda che usa dati del genere è Verily © Javier Larrea/AGF

le Scienze 30 I quaderni
Mark DePristo, che a Verily dirige la ricerca genomica
basata sull'apprendimento profondo, si aspetta che
DeepVariant sia utile ai ricercatori che studiano organismi
al di fuori del mainstream, ossia quelli con genomi
di riferimento di bassa qualità e alti tassi di errore
nell'identificazione delle varianti genetiche. Lavorando con
DeepVariant, il suo collega Ryan Poplin ha raggiunto tassi
di errore più vicini al 2 per cento che al 20 per cento tipico
di altri approcci.

Anche Brendan Frey, amministratore delegato dell'azienda


Deep Genomics di Toronto, si concentra sui dati genomici, © Ben Miners/AGF
ma per prevedere e curare le malattie. Il gruppo di Frey
all’Università di Toronto ha sviluppato algoritmi addestrati Gli strumenti di apprendimento approfondito potrebbero
su dati genomici e trascrittomici provenienti da cellule anche aiutare i ricercatori a stratificare i tipi di malattie,
sane. Questi algoritmi hanno costruito modelli predittivi di capire le sottopopolazioni patologiche, trovare trattamenti
eventi che coinvolgono l’RNA, come splicing, trascrizione e abbinarli ai pazienti in base ai test clinici e alla terapia.
e poliadenilazione. Una volta applicati a dati clinici, gli Finkbeiner, per esempio, fa parte di un consorzio chiamato
algoritmi sono stati in grado di identificare le mutazioni e di Answer ALS, che tenta di combinare una vasta gamma di
segnalarle come patogene, dice Frey, anche se non avevano dati – genomici, trascrittomici, epigenetici, proteomici,
mai visto dati clinici. A Deep Genomics, Frey usa gli stessi di imaging e anche delle cellule staminali pluripotenti
strumenti per identificare e prendere di mira i meccanismi – provenienti da 1000 persone con sclerosi laterale
patogenici scoperti dal software, e per sviluppare terapie amiotrofica, una malattia neurodegenerativa che colpisce
con brevi sequenze di acido nucleico. i motoneuroni. “Per la prima volta avremo un insieme di
dati su cui applicare l'apprendimento profondo e verificare
La scoperta di farmaci è un'altra disciplina con insiemi se può scoprire una relazione tra le cose che possiamo
enormi di dati che possono essere usati nell’apprendimento misurare in provetta, e quello che accade a un dato
profondo. In questo ambito, gli algoritmi aiutano a paziente", dice.
risolvere le sfide della categorizzazione, setacciando
caratteristiche molecolari come forma e legami a idrogeno Sfide e cautele
per identificare i criteri con cui stilare una classifica di Quali che siano le sue promesse, l'apprendimento profondo
farmaci potenziali. Per esempio, Atomwise, un'azienda pone sfide significative, avvertono i ricercatori. Come con
biotecnologica con sede a San Francisco, ha sviluppato qualsiasi tecnica di biologia computazionale, i risultati
algoritmi che convertono le molecole in griglie di pixel 3D, che derivano dagli algoritmi sono “buoni” solo quanto lo
chiamati voxel. sono i dati in ingresso. Un'altra preoccupazione riguarda
il rischio di un eccesso di adattamento ai dati usati per
Questa rappresentazione permette di tenere conto della l'addestramento. Senza contare che nell'apprendimento
struttura 3D delle proteine e delle piccole molecole con una profondo i criteri di quantità e qualità dei dati sono
precisione atomica, modellizzando caratteristiche come le spesso più rigorosi di quanto alcuni biologi sperimentali
geometrie degli atomi di carbonio. Queste caratteristiche potrebbero aspettarsi.
sono poi tradotte in vettori matematici che l'algoritmo può
usare per prevedere quali piccole molecole sono suscettibili Gli algoritmi di apprendimento profondo richiedono
di interagire con una data proteina, dice Abraham Heifets, insiemi di dati estremamente grandi e ben classificati, in
amministratore delegato dell'azienda. “Molto nostro modo che gli algoritmi possano imparare a distinguere
lavoro ha come obiettivo proteine che non hanno ligandi le caratteristiche e categorizzare i modelli. Insiemi molto
conosciuti", dice. gradi grandi e classificati in modo chiaro – con milioni di
dati che rappresentano diverse condizioni sperimentali e
Atomwise usa questa strategia per alimentare il suo fisiologiche – offrono ai ricercatori la massima flessibilità
nuovo programma di screening molecolare trainato nel predisporre un algoritmo. Finkbeiner nota che nel
dall'intelligenza artificiale, che analizza una libreria di suo lavoro la messa a punto di un algoritmo migliora
dieci milioni di composti per fornire ai ricercatori fino a 72 significativamente dopo circa 15.000 esempi. Carpenter
piccole molecole che sono potenziali ligandi della proteina sottolinea che questi dati di alta qualità possono essere
studiata. particolarmente difficili da ottenere.

le Scienze 31 I quaderni
Per aggirare la sfida, i ricercatori hanno iniziato a lavorare
su come ottenere di più con meno dati. I progressi negli
algoritmi di base permettono alle reti neurali di usare
i dati in modo molto più efficiente, dice Carpenter; in
alcune applicazioni l'addestramento è possibile con una
manciata di immagini. Gli scienziati possono anche
sfruttare il transfer learning, cioè la capacità delle reti
neurali di applicare a un certo tipo di dati alcune abilità
di classificazione acquisite da un tipo di dati differente.
Per esempio, il gruppo di Finkbeiner ha sviluppato
un algoritmo che insegnava a prevedere la morte
cellulare sulla base di cambiamenti morfologici. Anche © AGF
se i ricercatori avevano creato l'algoritmo per studiare
immagini di cellule di roditori, la prima volta che è stato I dati usati nell’addestramento possono essere distorti,
esposto a immagini di cellule umane ha raggiunto una per esempio come nel caso in cui si usano dati genomici
precisione del 90 per cento, migliorando fino al 99 per provenienti solo dall'Europa settentrionale. Algoritmi
cento via via che acquisiva esperienza. di apprendimento approfondo allenati su dati simili
acquisiranno errori sistematici e li rifletteranno nelle
Per alcuni suoi lavori biologici di riconoscimento delle loro previsioni, il che a sua volta potrebbe portare a cure
immagini, Google Accelerated Science usa algoritmi non adatte. Il concorso degli esseri umani alla convalida
che inizialmente sono stati addestrati su centinaia di di queste previsioni fornisce un controllo potenziale sul
milioni di immagini estratte da Internet. I ricercatori poi problema. Ma preoccupazioni del genere sono un problema
perfezionano l’addestramento, usando poche centinaia se un computer prende da solo decisioni chiave. “Pensare
di immagini biologiche simili a quelle che desiderano a questi metodi come a un modo per aumentare le capacità
studiare. degli esseri umani è meglio che pensare a questi metodi
come a qualcosa che sostituisca gli esseri umani", dice
Un'altra sfida per l'apprendimento profondo è che i Greene.
computer sono indolenti e scarsamente intelligenti,
nota Michelle Dimon, ricercatrice di Google Accelerated E poi c' è la sfida di capire esattamente come questi
Science: non sanno distinguere differenze biologicamente algoritmi costruiscano le caratteristiche, o i tratti distintivi,
rilevanti da variazioni normali. “Il computer è bravo che usano per classificare i dati. Gli informatici affrontano
a trovare variazioni in un'infornata di dati", nota. Di questa sfida cambiando o mescolando le caratteristiche
conseguenza, ottenere dati da inserire in un algoritmo individuali in un modello per poi esaminare come quelle
di apprendimento profondo spesso significa uno modifiche cambiano l'accuratezza delle previsioni, dice
standard molto elevato per la progettazione e i controlli Polina Mamoshina, ricercatrice di Insilico Medicine a
sperimentali. Google Accelerated Science richiede ai Baltimora, in Maryland, che usa l'apprendimento profondo
ricercatori di collocare casualmente i controlli sulle piastre per migliorare la scoperta di farmaci. Ma reti neurali
di coltura cellulare per tenere conto di fattori ambientali diverse che lavorano allo stesso problema non hanno
come la temperatura dell'incubatore, e di usare il doppio approcci uguali, avverte Greene. I ricercatori sono sempre
dei controlli che un biologo potrebbe altrimenti richiedere. più concentrati su algoritmi che fanno previsioni precise
e che possono essere spiegate, dice, ma per ora i sistemi
Questo tipo di rischi sottolinea l'importanza per i biologi e rimangono scatole nere.
gli informatici della fase di progettazione degli esperimenti
che usano l'apprendimento profondo, dice Dimon. E una “Non credo che nel 2018 entreranno in scena modelli di
progettazione attenta è diventata ancora più importante apprendimento profondo altamente comprensibili, anche
con uno degli ultimi progetti di Google: Contour, una se mi piacerebbe avere torto", dice Greene.
strategia per raggruppare i dati di immagini cellulari in
modi che evidenzino le tendenze (per esempio le risposte www.lescienze.it, 24 febbraio 2018
ai dosaggi) invece di metterli in categorie specifiche (come
vivo o morto). Sebbene gli algoritmi di apprendimento
profondo possano valutare i dati senza preconcetti e
filtri umani, Greene avverte che non significa che siano
imparziali.

le Scienze 32 I quaderni
La formazione
dell’universo
secondo
l’intelligenza
artificiale
© Science Photo Library / AGF

Una rete neurale di deep learning ha simulato con grande accuratezza e velocità la formazio-
ne dell’universo, ma ha colto di sorpresa i ricercatori elaborando anche parametri che non avrebbe
dovuto saper trattare

di Leonardo De Cosmo
La prima simulazione dell'universo fatta sfruttando misurare solo certe quantità. Con la simulazione possiamo
tecniche di intelligenza artificiale (IA) ha dato ottimi analizzare tutte le proprietà per tutte le galassie, e non solo
risultati, più rapidi e precisi del calcolo numerico relativamente a come appare oggi una galassia, ma nella
tradizionale, ma ha aperto una questione imprevista, e non sua intera storia di formazione.”
di poco conto: il simulatore ha fornito risultati per cui non
era stato addestrato e i ricercatori che lo hanno sviluppato Com’è ovvio, se si vogliono simulazioni più accurate è
non hanno idea di come sia potuto accadere. necessario un maggior sforzo computazionale, e questo
implica tempi di attesa più lunghi e costi più elevati. Per
A sviluppare la prima rete neurale concepita per averne una misura basti considerare che per completare
predire e simulare la formazione dell'universo è stato una delle simulazioni più precise ottenute nel progetto
un gruppo di ricerca guidato da Siyu He, della Carnagie IllustrisTNG, su un cubo di universo di un miliardo di
Mellon University e del Flatiron Institute, i cui risultati anni luce di lato, sono stati elaborati circa 500 terabytes
sorprendenti sono stati pubblicati sui “Proceedings of the di dati con uno dei supercomputer più potenti al mondo
National Academy of Sciences”. che ha lavorato per ben due mesi: un’attesa e un costo non
indifferenti. Per abbatterli è dunque necessario cercare
Sono ormai decenni che, grazie all'avvento dell'informatica, nuove strategie, e una soluzione pare stia arrivando
le simulazioni rappresentano uno degli strumenti più dall'intelligenza artificiale.
potenti per indagare i segreti dell'universo. Per ottenere
modelli il più possibile aderenti alle osservazioni Capire l'universo con l’IA
sperimentali è necessario sviluppare algoritmi sempre più “Il nostro obiettivo era capire se le tecniche di
efficaci ma soprattutto avere grande capacità di calcolo. apprendimento automatico, in particolare l’apprendimento
Simulazioni molto dettagliate come la recente IllustrisTNG profondo (deep learning) che viene spesso presentato come
- nata dalla collaborazione di alcuni dei più importanti la strada più adatta verso l'IA, fosse capace di imparare
istituti di ricerca al mondo - diventano veri e propri come funzionano i sistemi molto complessi, in questo
universi in miniatura dove i ricercatori possono mettere caso l'universo”, ha spiegato a “Le Scienze” Shirley Ho
alla prova tutte le loro ipotesi. della Carnegie Mellon University, coautrice del lavoro e
responsabile del Center for Computational Astrophysics
“Quando osserviamo le galassie al telescopio – ha del Flatiron Institute di New York.
spiegato Shy Gene, del Flatiron Institute, in occasione
della presentazione di IllustrisTNG, nel 2018 – possiamo Il sistema, ribattezzato Deep Density Displacement Model

le Scienze 33 I quaderni
(D3M), è stato dapprima alimentato con 8000 diverse L'inattesa capacità di D3M di maneggiare parametri
simulazioni dell'universo elaborate in precedenza da un senza essere stato precedentemente addestrato lo rende,
simulatore estremamente accurato già esistente. I dati secondo gli autori, uno strumento estremamente utile e
inseriti sono arrivati da una serie di simulazioni non-lineari flessibile. Il team di ricercatori si è detto convinto che, al
su grande scale della struttura dell'universo prodotte di là dei contributi alle simulazioni dell'universo dati in
attraverso una tecnica nota come ‘approssimazione di questa occasione, il nuovo sistema potrebbe essere un
Zeldovich’. perfetto banco di prova per capirne di più sulle potenzialità
dell’apprendimento profondo.
D3M ha lavorato in particolare sulla struttura
gravitazionale dell'universo per realizzare un'accurata “Non abbiamo idea del perché sia successo – ha concluso
simulazione in cui misurare gli effetti della gravità Ho – e siamo felici di accogliere qualsiasi nuova idea che
su miliardi di particelle durante l'intero arco di vita ci aiuti a spiegare il perché di questi risultati. Crediamo
dell'universo. In un processo ricorsivo, i risultati ottenuti che D3M sia un caso di strada a doppio senso che mette
dalla rete neurale sono stati più volte confrontati con in connessione scienza e apprendimento profondo.” Ora i
quelli attesi per affinarli ogni volta di più. Ogni passaggio ricercatori sono al lavoro sul prossimo obiettivo: “vogliamo
ha permesso di migliorare i risultati e accelerare in modo capire perché il modello funziona!”
significativo il processo.
www.lescienze.it, 29 luglio 2019
D3M ha avuto bisogno di 300 ore di calcolo per elaborare
la prima simulazione, ma dopo questa prima fase di
allenamento il nuovo software ha completato simulazioni
di cubi di universo di 600 milioni di anni luce di lato in
appena 30 millisecondi. “Il nostro si è rivelato un metodo
60 milioni di volte più rapido delle tradizionali simulazioni
numeriche”, ha precisato Ho.

Risultati imprevisti
Ma nonostante le inattese prestazioni in termini di rapidità
e accuratezza, la vera sorpresa per i ricercatori è stata il
fatto che D3M è stato in grado di produrre simulazioni
ottimizzando in modo autonomo alcuni parametri, come
la quantità di materia oscura, nonostante il software non
fosse stato istruito su quei parametri.

“Se si vuole un modello di apprendimento profondo che


riconosca cani e gatti, si sottopongono al sistema molte
immagini di cani e molte immagini di gatti, dicendo al
computer quali sono le immagini di cani e quali di gatti.
Così, dopo averlo istruito, quando gli mostri un gatto lui lo
riconoscerà come tale”, spiega Ho. “Quello che è successo
a noi è che a un certo punto abbiamo mostrato al modello
la foto di un elefante e lui ha riconosciuto un elefante. Il
problema è che non gli avevamo mai mostrato l'immagine
di un elefante!”

I cani e i gatti in questione erano simulazioni cosmologiche


dell'universo in cui, sulla base delle ipotesi attualmente più
accreditate, la materia oscura rappresentava il 30 per cento
di tutta la materia (sotto forma di un parametro fisso).
“Quel che non abbiamo capito – ha precisato Ho – è come
D3M sia stato capace di generare simulazioni cosmologiche
con il 50 e il 10 per cento di materia oscura, parametri che
non avevamo mai impostato su questi valori.”

le Scienze 34 I quaderni
Una morale
per le macchine

© metamorworks/iStock

Stabilire le regole a cui devono obbedire i sistemi di intelligenza artificiale è sempre più urgente

di Stefania De Vito
«Signor Zuckerberg, ci direbbe in quale albergo ha dormito ci affiancherà in un numero crescente di attività. Secondo
la notte scorsa?» «E i nomi delle persone con cui ha un rapporto dell’OCSE, in futuro il 14 per cento dei lavori
scambiato messaggi questa settimana?». Messo all’angolo sarà svolto da robot. Per questo è importante programmare
dal senatore Durbin, il fondatore e amministratore con cura le regole, anche morali, a cui i robot dovranno
delegato di Facebook sorride imbarazzato, esita, e poi attenersi. Per riprendere una battuta di Pedro Domingos,
rifiuta di rispondere. Chiamato a testimoniare sullo professore all’Università di Washington, le persone si
scandalo Cambridge Analytica davanti al Congresso degli preoccupano che i computer possano diventare talmente
Stati Uniti nell’aprile 2018, Mark Zuckerberg non vuole intelligenti da conquistare il mondo, ma il problema vero
diffondere dati sulla sua vita privata. È ben consapevole del è che i computer sono ancora troppo stupidi, e hanno già
fatto che possedere dati significa avere un potere. Il potere conquistato il mondo.
di fare previsioni, elaborare strategie, prendere decisioni,  
talvolta all’insaputa dell’interessato. Come? Grazie agli I pregiudizi dei robot
algoritmi. I robot prendono decisioni sulla base delle informazioni
che imparano. Per questo i dati sono più rilevanti degli
Gli algoritmi si servono di quantità ragguardevoli di dati algoritmi stessi. Il problema è che questi dati, sebbene
per apprendere schemi ricorrenti. Osservando questi siano molto numerosi, non sono universali. Nello studio
schemi, estraggono regole da applicare a casi nuovi. E così sui tumori della pelle, l’algoritmo si era allenato soprattutto
risolvono problemi. Ricercatori della Stanford University, su immagini scaricate dalla piattaforma Google Immagini.
guidati da Sebastian Thrun, hanno allenato un algoritmo Tuttavia James Zou e Londa Schiebinger, della Stanford
a individuare tumori della pelle presentandogli migliaia University, fanno notare che più del 95 per cento di
di immagini di lesioni cutanee benigne, carcinomi e queste immagini rappresentano persone di pelle chiara.
melanomi già classificati dai dermatologi. L’algoritmo L’algoritmo non si era allenato a riconoscere lesioni
estraeva le regole per distinguere i tumori e le applicava cutanee su persone di colore. Immaginate un dermatologo
a 129.450 immagini di lesioni cutanee non ancora in grado di diagnosticare accuratamente tumori
categorizzate. Le classificazioni dell’algoritmo erano esclusivamente su pelli chiare?
paragonabili a quelle ottenute da 21 dermatologi esperti.
Nel 2017 Shreya Shankar e colleghi, del Google Brain
Questo vuol dire che la macchina ci sostituirà? Lo scenario Team, hanno mostrato che le banche dati fornite agli
prospettato da Edward Morgan Forster nella storia La algoritmi rappresentano solo alcune popolazioni, di solito
macchina si ferma (1909), in cui gli uomini delegano le quelle occidentali. Sulla piattaforma ImageNet, largamente
loro vite alla Macchina e la venerano come una divinità, è utilizzata perché gratuita, si ha accesso a 14 milioni di
ancora fantascientifico. Tuttavia l’intelligenza artificiale immagini. Il 45 per cento di queste immagini rappresenta

le Scienze 35 I quaderni
Norman, il robot psicopatico

Il materiale dato in pasto ai Norman impara a generare tavole del test di Rorschach.
robot ne può influenzare il didascalie di figure. Ma, a Per esempio, in un’immagine
comportamento. Lo hanno differenza di altri robot, si allena volutamente ambigua di macchie
dimostrato nel 2018 Iyad Rahwan su immagini funeree. Si tratta d’inchiostro dove un sistema di
e i suoi colleghi del Massachussetts di foto macabre selezionate da intelligenza artificiale standard
Institute of Thecnology con la un forum del sito Reddit che vede «una persona con un
creazione di Norman, il robot documenta la realtà inquietante ombrello», Norman vede «un uomo
psicopatico (non a caso l’algoritmo della morte. Esposto esclusivamente che viene ucciso davanti alla moglie
si chiama come Norman Bates, il a questi contenuti, Norman che urla». (http://norman-ai.mit.
celebre personaggio del film Psyco manifesta tendenze psicopatiche edu).
di Alfred Hitchcock). nell’interpretazione delle famose

gli Stati Uniti, il 6,2 per cento l’Italia e solo l’1 per cento una a cinque stelle e alla fine sceglieva i migliori. Peccato
la Cina e il 2,1 per cento l’India, i due paesi più popolosi che i migliori fossero tendenzialmente uomini. Secondo
del pianeta, una sproporzione che determina distorsioni. l’agenzia di stampa Reuters, la società si è accorta che il suo
Un algoritmo che si allena a riconoscere immagini su programma penalizzava sistematicamente i curricula in cui
ImageNet saprà classificare correttamente come «coppia compariva la parola «donna» perché gli algoritmi si erano
di sposi» due tipici sposi italiani, ma non saprà riconoscere allenati passando al setaccio carriere negli ultimi dieci anni,
sposi pakistani. prevalentemente maschili. Da qui la deduzione, sbagliata,
che gli uomini potessero riuscire meglio delle donne.
Talvolta questi algoritmi parassitano stereotipi atavici,
da cui stiamo cercando di prendere le distanze. Nel 2017 I robot replicano pedissequamente gli schemi che
i ricercatori della Princeton University hanno mostrato imparano. Se si impregnano di stereotipi culturali, li
su «Science» che un sistema artificiale che impara dal ripropongono e li perpetuano. Non si tratta di questioni
linguaggio umano ne assorbe e reitera i cliché. La macchina trascurabili, visto che oggi l’intelligenza artificiale è usata
individua le regolarità statistiche, ossia gli abbinamenti quasi dappertutto. Pensiamo ai sistemi automatici di
frequenti tra due concetti. Se si allena su testi presi da riconoscimento dei volti. Questi software, a disposizione
Internet, impara a predire che la parola «fiore» sarà seguita dei dipartimenti di polizia, confrontano una foto o un video
da aggettivi piacevoli, al contrario di «insetto». Ma anche con milioni di immagini schedate.
che le parole «donna» e «femminile» sono più spesso
accomunate a lavori artistici e umanistici, mentre le parole Negli Stati Uniti le banche dati consultate per i
«uomo» e «maschile» sono più vicine alla matematica e riconoscimenti includono foto di documenti d’identità e
all’ingegneria. patenti: 117 milioni di foto sono compulsate migliaia di
volte all’anno da oltre 200 agenzie di controllo statali, locali
E non solo Internet, ma anche libri e giornali riflettono e federali.
molti stereotipi. Nikhil Garg e colleghi hanno chiesto a
un algoritmo di individuare abbinamenti frequenti di
parole su libri, giornali e altri testi statunitensi dal 1900
a oggi. Prima del movimento femminista, aggettivi come
«intelligente», «ragionevole» e «riflessivo» si trovavano
soprattutto in riferimento a uomini. Dagli anni sessante,
invece, la storia cambia e gli stessi aggettivi si usano sempre
più di frequente per descrivere le donne. Questo vuol dire
che se gli algoritmi si allenano su testi datati traghettano
pregiudizi da un’epoca all’altra.

È quello che è successo al gruppo Amazon, che dal 2014 si


serviva di un programma per selezionare i curricula dei suoi I sistemi di riconoscimento automatico sono ormai parte integrante delle strutture di
futuri impiegati. Il computer attribuiva a ogni candidato da sicurezza (© ER_Creative/iStock)

le Scienze 36 I quaderni
Pubblicità su misura

Analizzando tre milioni e mezzo National Academy of Sciences» , i La campagna si è tradotta in 10.346
di utenti di Facebook, Sandra ricercatori individuavano le donne click e 390 acquisti sul sito che
Matz e colleghi hanno mostrato più estroverse e quelle meno. Poi vendeva il prodotto pubblicizzato
che messaggi pubblicitari indirizzavano alle une e alle altre negli annunci: il 40 per cento
personalizzati aumentano a il tipo di annuncio che meglio di click in più e il 50 per cento di
dismisura il numero di vendite. In corrispondeva alle loro preferenze: acquisti in più rispetto a quelli
uno dei tre esperimenti pubblicati sbarazzino e disinibito per le prime, ottenuti con annunci generici.
nel 2017 sui «Proceedings of the discreto e riservato per le seconde.

Il problema è che questi software possono sbagliare e accordato a pagine pubbliche di Facebook. Dal tipo di
discriminare. E infatti sbagliano, soprattutto quando pagine seguite su Facebook i ricercatori riuscivano a
identificano le donne, i giovani tra i 18 e i 30 anni e predire tratti di personalità come il grado di socievolezza,
gli afroamericani, come denuncia una ricerca a cui ha di intelligenza, l’orientamento sessuale e politico, l’uso
partecipato anche l’FBI. Nel 2018 l’Unione americana per di alcolici, il fumo. Dai like si poteva dedurre età e sesso,
le libertà civili (ACLU) ha presentato i volti dei membri del capire se una persona fosse in una relazione sentimentale o
Congresso al software Rekognition, sviluppato da Amazon. single e persino se i suoi genitori fossero separati.
Rekognition ha individuato in 28 membri del Congresso
persone arrestate per aver commesso un crimine. Circa Le correlazioni tra le pagine che ci piacciono e aspetti
il 40 per cento dei riconoscimenti sbagliati riguardava della nostra personalità non sono ovvie, anzi talvolta sono
persone di colore. davvero difficili da intuire. Un «mi piace» alla pagina della
Lega non indica automaticamente una preferenza politica.
Tweet, e-mail, Facebook, Instagram, ricerche, acquisti. Il sistema di inferenze è molto più complesso e indiretto.
Ogni passo che muoviamo su Internet lascia impronte. Ma Un interesse per pagine su libri e film era associato nello
chi si serve di questa mole di informazioni? E per farne studio a un alto quoziente d’intelligenza. I meno intelligenti
cosa? La maggior parte degli algoritmi è sviluppata per invece preferivano le pagine di cosmetici e motociclette.
vendere prodotti. Più attraente è la piattaforma più spesso
le persone la usano, generando un numero significativo I nostri like dicono di noi molto più di quanto vogliamo.
di dati. In questo modo gli algoritmi possono generare Compagnie commerciali, istituzioni governative,
previsioni e provare a influenzare i comportamenti dei amici di Facebook possono usare modelli statistici per
consumatori. Ma non è solo lo spazio commerciale a risalire a caratteristiche delle nostre personalità che
interessare le aziende, quanto il privilegio di confezionare non necessariamente avremmo avuto intenzione di
spot individualizzati per consumatori di cui si conoscono condividere. L’uso che viene fatto di queste informazioni
interessi e abitudini. elargite con scioltezza non ha regole, o non abbastanza.
 
Dimmi chi sei Basti pensare allo scandalo di Cambridge Analytica. Pare
Nel 2007 David Stillwell, dell’Università di Cambridge, ha che nel 2014 la società abbia usato senza autorizzazione
sviluppato un’applicazione su Facebook, MyPersonality, la i dati di 87 milioni di utenti di Facebook per captare voti
mia personalità, dove gli utenti rispondevano a domande elettorali nella campagna per la presidenza degli Stati
tratte da test che misurano caratteristiche di personalità e Uniti del 2016. Secondo «The Guardian», la società di
il quoziente intellettivo. L’applicazione, attiva fino al 2012, consulenza, il cui vice presidente era Steve Bannon,
ha collezionato un numero incredibile di dati. Sei milioni all’epoca principale consigliere di Donald Trump, si servì di
di volontari rispondevano con disinvoltura a domande questi dati per selezionare utenti sulla base del loro profilo
molto personali sul loro carattere («mi stresso facilmente», psicologico e configurare algoritmi che mostravano spot
«evito il contatto con gli altri», «mi piace essere al centro elettorali personalizzati.
dell’attenzione»).
Possedere le valutazioni psicologiche di milioni di persone
In uno dei 45 articoli scientifici pubblicati grazie a questi permette di influenzare comportamenti e scelte di massa.
dati, Stillwell e colleghi hanno analizzato i risultati ottenuti Se si conoscono gli interessi e le attitudini di una persona,
su MyPersonality in relazione ai like che gli utenti avevano si può predire meglio la sua propensione a compiere una

le Scienze 37 I quaderni
scelta e le inclinazioni personali diventano un manichino su anticipo. Se l’incidente fosse inevitabile, l’auto dovrebbe
cui confezionare la persuasione. sapere chi salvare. Ma chi decide le regole? E c’è un
consenso abbastanza vasto su quali siano queste regole?
In una famosa scena del film La vita è bella (1997), la Il Ministero dei trasporti tedesco è il primo e l’unico al
cucina del ristorante è chiusa, resta solo il salmone, e mondo ad aver elaborato nel 2017 norme etiche per i veicoli
il cameriere, impersonato da Roberto Benigni, deve a guida autonoma, il che non sorprende se si pensa che
convincere il cliente a ordinarlo. Basta che il cliente la Germania è la patria di grandi case automobilistiche
dica «Vorrei qualcosa di leggero», perché il salmone sia che investono molto in questo tipo di tecnologia, come
presentato come «magro» e tutto il resto come «pesante», la BMW e la Volkswagen. La commissione incaricata
«fritto», «grasso». Gli algoritmi selezionano la platea di dal governo tedesco ha stabilito l’obbligatorietà per i
riferimento. Inutile provare a vendere salmone ai vegani. veicoli di salvare esseri umani a scapito di cose e animali
In seguito, questa platea viene ulteriormente segmentata e ha determinato che sarebbe moralmente inaccettabile
al fine di esaltare gli aspetti del prodotto che combaciano decidere quale essere umano salvare sulla base di
con le preferenze del cliente. Il salmone è «magro» per chi qualsiasi tipo di discriminante. Tuttavia, non tutti sono
vuole una cena leggera e «grasso» per chi ha bisogno di d’accordo. Molti vorrebbero diversificare le scelte sulla
omega 3. base delle caratteristiche di pedoni e passeggeri coinvolti
  nell’incidente.
Chi decide chi salvare?
I dati possono anche servire per elaborare regole di Alcuni studi si sono fatti carico di sondare il terreno. E lo
condotta. Se l’obiettivo è rendere le macchine sempre più hanno fatto ispirandosi al cosiddetto dilemma del carrello
autonome, allora bisogna programmare anche le norme ferroviario. In uno studio pubblicato su «Science» nel 2016
morali a cui gli algoritmi devono attenersi. Pensiamo Jean-François Bonnefon, Azim Shariff e Iyad Rahwan
alle automobili senza pilota, che dovrebbero ridurre hanno proposto ai partecipanti scenari che simulano
drasticamente il numero di incidenti stradali e le emissioni un incidente imminente, chiedendo loro di scegliere
di anidride carbonica. Secondo il Forum internazionale se proseguire e investire un certo numero di persone o
dei trasporti, l’arrivo sulle strade di vetture a guida sterzare, andare contro un muro e sacrificare il passeggero?
completamente autonoma è imminente. Questi veicoli di In genere, i soggetti pensano che la macchina dovrebbe
un futuro non lontano dovranno prendere decisioni morali salvaguardare il maggior numero di vite umane, quindi in
universali. questo caso uccidere il passeggero. Ma c’è un paradosso:
non comprerebbero mai un’auto programmata per
ucciderli, neanche se questo fosse previsto solo in occasioni
rarissime e solo per salvare la vita di molte persone. Gli
autori lo definiscono un dilemma sociale.

Più recentemente gli stessi ricercatori hanno pubblicato


su «Nature» uno studio più vasto. Nell’esperimento della
macchina morale incalzano i partecipanti di 125 paesi con
la richiesta di scegliere il finale di miliardi di scenari che si
biforcano in un aut aut. L’auto deve decidere chi uccidere
e chi salvare: animali o esseri umani, anziani oppure
bambini, uomini d’affari o senzatetto, uomini o donne.

Lo studio ha registrato 40 milioni di decisioni, che variano


© Just_Super/iStock a seconda dei paesi di appartenenza. Il mondo occidentale
preferisce che si salvino le persone piuttosto che gli
Immaginiamo di trovarci nel 2030, a bordo di una vettura animali, i bambini anziché gli anziani e molte vite rispetto
senza conducente. Stiamo leggendo il giornale quando un a una persona sola. I paesi asiatici e musulmani sono
cane attraversa la strada. Che cosa fa la macchina? Sterza meno interessati al numero di vite e non fanno differenza
rischiando di finire fuori strada e uccidere il passeggero tra giovani e anziani. Talvolta le preferenze delle persone
o prosegue e investe il cane? Se alla guida ci fossimo noi, implicano discriminazioni inaccettabili. Gli occidentali
avremmo a disposizione solo 100 o 200 millisecondi, sacrificherebbero senzatetto a favore di uomini d’affari.
che non sono sufficienti per prendere una decisione. In Sud America e in Francia si preferisce salvare le donne
Al contrario, la macchina può essere programmata in invece degli uomini.

le Scienze 38 I quaderni
Intervistato da me, Jean-François Bonnefon precisa che
la ricerca non mira a trasporre direttamente le preferenze
delle persone negli algoritmi, ma a «creare consapevolezza
sull’urgenza di dotare le auto senza pilota di una vasta
gamma di scelte morali. Queste scelte non possono essere
formulate senza tenere conto dell’opinione pubblica», ossia
del parere di chi quelle auto dovrà comprarle. D’altra parte,
continua Bonnefon, «non sempre le persone vogliono
quello di cui hanno bisogno». Le preferenze delle persone
possono (mal)celare discriminazioni. «Per questo abbiamo
bisogno di politici che elaborino linee guida, tenendo
conto della prospettiva dei cittadini e, dove necessario,
correggendo pregiudizi intollerabili». La comparsa di
veicoli senza pilota è abbastanza recente, e non c’è ancora © gorodenkoff/iStock
un consenso unanime sulle norme da applicare. Ma
dobbiamo cominciare a discuterne. Non possiamo lasciare Questo algoritmo, come ci racconta Denis Engemann,
che a prendere queste scelte siano le case automobilistiche, dell’Istituto nazionale francese per la ricerca
sulla base di interessi commerciali. nell’informatica e nell’automazione (INRIA), «certamente
non sostituisce la valutazione dell’équipe medica, ma
Decidere chi salvare e chi sacrificare non sarà una rappresenta un sistema complementare che i medici
prerogativa solo delle macchine senza conducente. Gli possono usare per avere un riscontro affidabile della
algoritmi aiuteranno a prendere decisioni informate loro valutazione. In caso di discrepanza tra il parere del
anche in ambito medico. Si pensi a pazienti con gravi medico e la predizione dell’algoritmo, i medici avranno
lesioni cerebrali che provocano disturbi dello stato di la possibilità di esaminare ulteriormente il paziente per
coscienza per periodi di tempo prolungati. Per capire quale fugare i dubbi, prima che sia troppo tardi». Questo è uno
sia lo stato di coscienza di questi pazienti, se ne osserva dei motivi per cui al Massachusetts Institute o Thecnology
il comportamento. Si cerca di capire se i pazienti siano il professor Joi Ito parla di «intelligenza estesa».
consapevoli di sé e dell’ambiente circostante e se siano in Un’intelligenza che non può sostituirsi alla nostra, ma che
grado di agire volontariamente, seguendo per esempio con estende le nostre abilità cognitive.
lo sguardo un oggetto in movimento.
Le macchine ci aiuteranno a decidere. Per questo adesso
Tuttavia, le valutazioni comportamentali possono variare è fondamentale eliminare le distorsioni di valori condivisi
significativamente a seconda dei medici, dell’ospedale che si annidano in algoritmi opachi e mantenere saldo
e del paese in cui vengono effettuate. Il risultato è il controllo democratico sulle regole sociali che i robot
che l’attendibilità delle diagnosi è drammaticamente dovranno seguire. Dobbiamo decidere per le macchine, per
fluttuante. Le diagnosi sbagliate possono raggiungere il 40 evitare che un domani siano le macchine a decidere per noi. 
per cento dei casi se le valutazioni non sono standardizzate,
e fino al 30 per cento se non si esamina il paziente L'autrice
ripetutamente. Il dato è allarmante se si considera che Stefania de Vito insegna processi cognitivi
queste diagnosi sono talvolta fondamentali per valutare se dell’apprendimento all’Università di Parigi «Paris-Sud». Si
interrompere l’alimentazione e l’idratazione assistita. occupa di ricerca nell’ambito delle neuroscienze cognitive.
In particolare, studia le simulazioni del futuro di persone
Denis Engemann e colleghi mostrano sulla rivista «Brain» sane e di pazienti con lesioni cerebrali
che l’intelligenza artificiale può contribuire all’elaborazione
di valutazioni accurate. I ricercatori hanno allenato un MIND, n. 171, marzo 2019
algoritmo a riconoscere centinaia di pazienti più o meno
consci in base alla registrazione dell’attività elettrica
cerebrale con l’elettroencefalogramma (EEG). In seguito,
gli algoritmi riuscivano a diagnosticare il grado di coscienza
di nuovi pazienti, usando solo pochi minuti di tracciati
EEG e solo 16 elettrodi. L’affidabilità delle diagnosi era
impressionante anche quando i dati erano registrati in
paesi diversi, con diversi tipi di strumenti e di protocolli.

le Scienze 39 I quaderni
Se una macchina impara
i pregiudizi umani

© Andrzej WojcickI/SPL/AGF

Le più stupefacenti applicazioni dell’intelligenza artificiale non sono guidate da una logica asettica e
oggettiva, ma incorrono facilmente in errori sistematici e veri e propri pregiudizi che gli algoritmi di
apprendimento automatico alla loro base acquisiscono dai progettisti umani

di Jesse Emspak
Se l'intelligenza artificiale prenderà il sopravvento Questi pregiudizi causano alcune immediate
nella nostra vita, probabilmente non porterà l'uomo preoccupazioni sulla nostra crescente dipendenza dalla
a combattere un esercito di robot che applicano tecnologia dell'intelligenza artificiale (IA), perché ogni
un'inesorabile logica alla Spock per renderci fisicamente sistema di intelligenza artificiale progettato dagli esseri
schiavi. Piuttosto, gli algoritmi di apprendimento umani per essere assolutamente "neutrale" potrebbe
automatico che già consentono ai programmi di rafforzare ancor più i preconcetti umani, invece di evitarli.
intelligenza artificiale (IA) di raccomandarci un film Le forze dell'ordine sono già state criticate, per esempio,
o riconoscere il viso di un amico in una foto saranno per l'uso di algoritmi informatici che etichetterebbero
probabilmente gli stessi che un giorno ci negheranno un gli imputati neri come autori più probabili di un crimine
prestito, faranno arrivare la polizia nel vostro quartiere futuro, anche se il programma non è stato progettato per
o diranno al vostro medico che avete bisogno di una prendere in considerazione in modo esplicito la razza.
dieta. E dal momento che sono gli esseri umani a creare Il problema principale è doppio: in primo luogo, i dati usati
gli algoritmi, questi sono altrettanto inclini a pregiudizi per calibrare gli algoritmi di apprendimento automatico
che possono portare a decisioni sbagliate, e conseguenze talvolta sono insufficienti, e in secondo luogo, gli algoritmi
ancora peggiori. possono essere progettati male.

le Scienze 40 I quaderni
L'apprendimento automatico è il processo attraverso cui gli
sviluppatori di software addestrano un algoritmo di IA con
enormi quantità di dati rilevanti per il compito da eseguire.
Alla fine, l'algoritmo che ha individuato dei modelli nei
dati inizialmente forniti, consente di riconoscere modelli
simili anche in dati nuovi. Ma questo non sempre funziona
come previsto, e il risultato può essere orribile. Nel giugno
del 2015, per esempio, il sistema di categorizzazione delle
foto di Google ha identificato due afroamericani come
"gorilla". L'azienda ha risolto rapidamente il problema,
ma in un articolo sul "New York Times" la ricercatrice
della Microsoft Kate Crawford ha osservato che l'errore
riflette un più ampio "problema dell'uomo bianco"
dell'IA. I dati utilizzati per addestrare il software, cioè, si © Wavebreak Media/AGF
basavano troppo su foto di bianchi, diminuendo la capacità
dell'algoritmo di individuare con precisione le immagini di Xiaolin Wu e Zhang Xi, della Shanghai Jiao Tong
persone con caratteristiche diverse. University, hanno addestrato un algoritmo di
apprendimento automatico su un insieme di dati costituito
Anche la recente ondata di storie false che ha sommerso da 1856 foto di volti, 730 di criminali condannati e 1126
gli utenti di Facebook mette in evidenza il problema di non criminali. Dopo aver guardato il 90 per cento delle
della polarizzazione dell'IA. L'algoritmo di Facebook per immagini, l'IA è stata in grado di identificare correttamente
identificare le notizie più significative è stato progettato nel restante 10 per cento di foto quelle dei criminali
per stabilire la priorità sulla base del coinvolgimento, condannati.
ossia sulla frequenza con cui le persone cliccano la
notizia o la condividono. La veridicità non è stata presa Secondo lo studio, l'algoritmo correla specifiche
in considerazione. Ai primi di novembre varie agenzie di caratteristiche facciali con la criminalità. I criminali,
stampa hanno rivelato che durante le elezioni negli Stati per esempio, avevano più probabilità di avere certi
Uniti un gruppo di adolescenti macedoni aveva ingannato rapporti spaziali tra la posizione degli angoli degli occhi,
l'algoritmo di Facebook facendogli promuovere storie la curvatura delle labbra e la punta del naso, dice Wu,
palesemente false che potevano piacere agli elettori di che comunque osserva che avere uno di quei rapporti
destra. Facebook dice di avere poi modificato l'algoritmo non indica necessariamente che una persona abbia più
e ha annunciato piani di coordinamento con Snopes.com, probabilità di essere un criminale. Wu ha anche scoperto
Factcheck.org, ABC News e PolitiFact per escludere gli che i volti dei criminali differivano maggiormente l'uno
articoli ovviamente falsi. dall'altro, mentre i non criminali tendevano a condividere
caratteristiche simili.
"E' un po' come il problema del tank russo", dice Hal
Daume III, docente di informatica all'Università del Wu ha continuato testare l'algoritmo usando un diverso
Maryland. Questa leggenda apocrifa, ma esemplare, insieme di foto che l'IA non aveva visto in precedenza,
spesso raccontata dai docenti di informatica, risale agli e ha scoperto che poteva individuare correttamente un
albori dell'apprendimento automatico, negli anni ottanta. condannato più spesso di quanto sbagliasse. I ricercatori
La storia dice che l'esercito americano aveva cercato hanno cercato di evitare alcune distorsioni nel corso
di addestrare un computer a distinguere in foto i carri dell'addestramento e nella sperimentazione del loro
armati russi e quelli americani. "Avevano creato una algoritmo ricorrendo solo a facce di maschi cinesi giovani o
classificazione estremamente precisa, ma tutte le immagini di mezza età senza peli sul viso e senza cicatrici.
di carri armati russi erano sfocate mentre quelle dei carri
armati americani erano ad alta definizione", spiega Daume. "Avevo deciso di dimostrare che la fisiognomica era
Invece di identificare i carri armati, l'algoritmo aveva sbagliata", dice Wu, riferendosi alla secolare pseudoscienza
imparato a distinguere tra foto sgranate e di alta qualità. di valutare il carattere in base ai tratti del viso. "Siamo stati
sorpresi dai risultati." Anche se potrebbe sembrare che
Nonostante questi limiti ben noti, un gruppo di ricercatori lo studio convalidi alcuni aspetti della fisiognomica, Wu
recentemente ha pubblicato uno studio affermando che riconosce che sarebbe "folle" usare quella tecnologia per
un algoritmo era in grado di dedurre se una persona è un scegliere qualcuno da un elenco di polizia, e dice che non c'è
pregiudicato valutandone i tratti del viso. alcun progetto per qualsivoglia applicazione di polizia.

le Scienze 41 I quaderni
Altri scienziati dicono che le scoperte di Wu e Zhang
possono semplicemente rafforzare pregiudizi esistenti.
La criminalità dei soggetti è stata determinata da un
sistema giudiziario locale gestito da esseri umani che
prendono (magari inconsciamente) decisioni di parte,
osserva Blaise Agüera y Arcas, un ricercatore di Google che
studia l'apprendimento automatico. Il problema centrale
dell'articolo è che si basa su questo sistema "come verità di
riferimento per etichettare i criminali, e quindi conclude
che l'apprendimento automatico che ne risulta non è
distorto dalla valutazione umana", aggiunge.

Wu e i suoi colleghi "saltano direttamente alla conclusione


di aver trovato un modello naturale di base - la struttura
del viso - che predice la criminalità. E' una conclusione
molto imprudente", dice Kyle Wilson, docente di
matematica al Washington College ed esperto in computer
vision. Wilson dice anche che questo algoritmo può
semplicemente riflettere la polarizzazione degli esseri
umani in un particolare sistema giudiziario, e potrebbe
fare la stessa cosa in qualsiasi altro paese. "Gli stessi dati e
strumenti potrebbero essere usati per comprendere meglio
i pregiudizi [umani] fondati sull'aspetto che sono in gioco
nel sistema giudiziario penale", aggiunge. "Invece, hanno
insegnato al computer a riprodurre quegli stessi pregiudizi
umani".

Altri ancora dicono che la tecnologia potrebbe essere


migliorata tenendo conto degli errori nei modelli imparati
dai computer, in modo da cercare di eliminare i pregiudizi
umani. Un sistema di intelligenza artificiale commette
errori quando impara, anzi deve commetterli, è per
questo che si chiama "apprendimento", spiega Jürgen
Schmidhuber, direttore scientifico del laboratorio di
intelligenza artificiale svizzero dell'Istituto Dalle Molle
di studi sull'intelligenza artificiale. I computer, osserva
Schmidhuber, impareranno solo ciò che è permesso dai
dati che sono forniti.

"Non si possono eliminare tutte le fonti di distorsione,


così come non è possibile eliminare queste fonti per gli
esseri umani", dice. Ma, aggiunge, è possibile riconoscere
e assicurarsi di usare solo dati buoni e progettare bene il
compito; fare le domande giuste è fondamentale. Oppure,
per ricordare un vecchio detto dei programmatori: la
spazzatura che metti dentro la ritrovi in uscita.

www.lescienze.it, 2 gennaio 2017

le Scienze 42 I quaderni
Possiamo aprire la scatola nera
dell’intelligenza artificiale?

© Sergei Iaremenko/SPL/AGF

L’intelligenza artificiale è ormai dappertutto, grazie al dilagare delle macchine che sfruttano le capa-
cità di apprendimento profondo. Ma prima che gli scienziati possano fidarsene tanto da usarle nel-
le loro ricerche, devono comprendere in che modo imparano, ed è un compito tutt'altro che semplice

di Davide Castelvecchi

Dean Pomerleau ricorda ancora il suo primo braccio di nell'Humvee c'era un computer che aveva programmato
ferro con il problema della scatola nera. L'anno era il per guardare attraverso una telecamera, interpretare
1991 ed era impegnato in un pionieristico tentativo di ciò che stava accadendo sulla strada e memorizzare ogni
raggiungere un risultato che oggi è comune nella ricerca sui sua (di Pomerleau) azione di  risposta. Alla fine, sperava
veicoli a guida autonoma: insegnare a un computer come Pomerleau, la macchina avrebbe avuto a disposizione un
guidare. numero di associazioni sufficiente per guidare da sola.
In ogni viaggio, Pomerleau addestrava il sistema per
Il progetto consisteva nel guidare un veicolo militare qualche minuto, per poi lasciarlo andare a se stesso.
Humvee appositamente modificato attraverso Tutto sembrava andare bene, finché un giorno l'Humvee,
strade urbane, ricorda Pomerleau, che allora era avvicinandosi a un ponte, improvvisamente deviò da
uno specializzando di robotica alla Carnegie Mellon un lato. Pomerleau evitò l'incidente solo afferrando
University di Pittsburgh, in Pennsylvania. Con lui velocemente il volanre e riprendendo il controllo.

le Scienze 43 I quaderni
Tornato in laboratorio, Pomerleau cercò di capire dove
aveva sbagliato il computer. "Una parte della mia tesi è
consistita nell'aprire la scatola nera e capire che cosa stava
'pensando' ". Ma come? Aveva programmato il computer
per agire come una rete neurale - un tipo di intelligenza
artificiale (IA) ispirata al cervello che prometteva di
funzionare meglio degli algoritmi standard nel gestire le
situazioni complesse del mondo reale.

Purtroppo, queste reti sono anche opache quanto il


cervello. Invece di memorizzare ciò che hanno appreso
in un blocco ordinato di memoria digitale, distribuiscono
le informazioni in un modo molto difficile da decifrare.
Pomerleau riuscì ad afferrare il problema solo dopo un
gran numero di test sulle risposte del software a vari stimoli
visivi: la rete stava usando i margini erbosi della strada
come indizio per la direzione da seguire, per cui l'aspetto
del ponte l'aveva confusa.
L’automobile a guida autonoma di Google per le strade di Washington D.C. (© Karen
Bleier/GettyImages)
Venticinque anni dopo, decifrare la scatola nera è
diventato sempre più difficile e più urgente. La tecnologia "Penso che stiamo sicuramente perdendo terreno rispetto
è esplosa sia in complessità che in numero di applicazioni. a questi algoritmi", dice Hod Lipson, esperto di robotica
Pomerleau, che ora insegna robotica alla Carnegie alla Columbia University a New York City. Egli paragona
Mellon, descrive il suo piccolo sistema sull'Humvee la situazione all'incontro con una specie aliena intelligente
come "una versione povera" delle enormi reti neurali che i cui occhi hanno recettori non solo per i colori primari -
vengono usate per le macchine di oggi. E le tecniche di rosso, verde e blu - ma anche per un quarto colore. Sarebbe
apprendimento profondo, in cui le reti vengono addestrate molto difficile per gli esseri umani capire come vede il
su enormi archivi di dati, hanno applicazioni commerciali mondo l'alieno, e per lui spiegarlo a noi. I computer avranno
che vanno dalle automobili a guida autonoma ai siti difficoltà analoghe nello spiegaci le cose a noi, dice Lipson.
Internet che consigliano prodotti in base alla storia di "In un certo senso, è come spiegare Shakespeare a un cane."
navigazione di un utente.
Di fronte a queste sfide, gli esperti di intelligenza artificiale
L'apprendimento profondo promette di diventare stanno rispondendo proprio come Pomerleau: aprendo
onnipresente anche in ambito scientifico. I futuri la scatola nera e facendo l'equivalente di ciò che fanno
osservatori radioastronomici ne avranno bisogno per le neuroscienze. Le risposte non sono però una vera
trovare segnali utili nella mole altrimenti ingestibile dei comprensione, dice Vincenzo Innocente, fisico del CERN,
loro dati; i rivelatori di onde gravitazionali lo useranno per il laboratorio che ha aperto la strada all'applicazione dell'IA
identificare ed eliminare le più piccole fonti di rumore; e nella fisica delle particelle. "Come scienziato - dice - non
gli editori lo useranno per setacciare e "taggare" milioni di mi basta saper distinguere i gatti dai cani. Uno scienziato
articoli  e libri scientifici. vuole essere in grado di dire: 'la differenza è in questo e in
questo".
Alla fine, secondo alcuni ricercatori, i computer dotati di
apprendimento profondo potranno anche manifestare Buon viaggio
immaginazione e creatività. "Butteremo dei dati in pasto Le prime reti neurali artificiali risalgono agli inizi degli
alla macchina, e quella restituirà leggi di natura", dice Jean- anni cinquanta, quando furono a disposizione computer in
Roch Vlimant, fisico al California Institute of Technology a grado di eseguire algoritmi. L'idea è simulare piccole unità
Pasadena. di calcolo - i "neuroni" - disposte in strati collegati da una
moltitudine di "sinapsi" digitali. Ogni unità dello strato
Ma questi progressi renderebbero il problema della scatola di fondo riceve dati esterni, come i pixel di un'immagine,
nera ancora più acuto. Come fa la macchina a trovare i e poi distribuisce questa informazione ad alcune o a tutte
segnali utili, per esempio? E come si può essere sicuri che le unità nello strato successivo. Ogni unità nel secondo
non sbagli? Fino a che punto dovremmo essere disposti a strato integra quindi gli ingressi dal primo strato, usando
fidarci dell'apprendimento profondo? una semplice regola matematica, e passa il risultato più in

le Scienze 44 I quaderni
alto. Alla fine, lo strato superiore produce una risposta, per Ma se la macchina non riesce a spiegare come fa a saperlo,
esempio classificando l'immagine originale come quella di spiega Vedaldi, porrebbe gravi dilemmi a medici e pazienti.
un “gatto” o di un “cane”.
E' abbastanza difficile per una donna scegliere di sottoporsi 
La potenza di queste reti deriva dalla loro capacità una mastectomia preventiva perché ha una variante
di apprendimento. Partendo da un insieme di dati di genetica nota per aumentare significativamente il rischio
addestramento accompagnati dalle risposte giuste, di cancro. Ma potrebbe essere ancora più difficile scegliere
possono migliorare progressivamente le loro prestazioni senza nemmeno sapere qual è il fattore di rischio, anche se
modificando la forza di ogni connessione fino a che le la macchina a mostrato di essere molto precisa nelle sue
risposte del livello superiore sono corrette. Il processo, previsioni. "Il problema è che la conoscenza viene acquisita
che simula il modo in cui il cervello impara rafforzando o nella rete, e non in noi", dice Michael Tyka, biofisico e
indebolendo le sinapsi, alla fine produce una rete in grado programmatore di Google a Seattle, Washington. "Abbiamo
di classificare correttamente dati nuovi che non facevano davvero capito qualcosa? Non proprio, lo ha fatto la rete."
parte dell'insieme di addestramento.
Nel 2012 diversi gruppi hanno cominciato ad affrontare
Questa capacità di imparare rappresenta una grande il problema della scatola nera. Uno di essi, diretto
attrattiva per i fisici del CERN fin dagli anni novanta, da Geoffrey Hinton, specialista dell'apprendimento
quando sono stati tra i primi a usare abitualmente reti automatico all'Università di Toronto, ha partecipato a
neurali su larga scala in campo scientifico: le reti si una competizione di computer vision  dimostrando per la
sarebbero dimostrate di enorme aiuto nel ricostruire le prima volta che la capacità dell'apprendimento profondo
traiettorie delle tracce subatomiche prodotte dalle collisioni di classificare le fotografie di un database di 1,2 milioni
di particelle al Large Hadron Collider del CERN. di immagini supera di gran lunga quella di qualsiasi altro
approccio all'intelligenza artificiale.
Ma questa forma di apprendimento è anche il motivo
per cui l'informazione è così diffusa nella rete: come nel Scavando più in profondità per capire come fosse possibile,
cervello, la memoria è codificata nella forza di molteplici il gruppo di Vedaldi ha preso gli algoritmi sviluppati da
connessioni, invece di essere archiviata in posizioni Hinton per migliorare l'addestramento della rete, e li ha
specifiche, come in un database convenzionale. "Dove sta fatti girare in senso inverso. Invece di insegnare a una rete
nel vostro cervello la prima cifra di un numero di telefono? a dare la corretta interpretazione di un'immagine, il gruppo
Probabilmente in un gruppo di sinapsi, probabilmente è partito dalle reti pre-addestrate e ha cercato di ricostruire
non troppo lontano dalle altre cifre ", dice Pierre Baldi, le immagini avevano prodotto. Questo ha aiutato i
studioso dell'apprendimento automatico all'Università ricercatori a identificare in che modo la macchina stava
della California a Irvine. Ma non c'è una sequenza definita rappresentando le diverse caratteristiche;: un po' come se
di bit che codifica il numero. Di conseguenza, dice Jeff avessero chiesto a un'ipotetica rete neurale cerca-cancro
Clune, informatico all'Università del Wyoming a Laramie, 'quale parte di questo mammografia hai deciso che è un
"anche se costruiamo queste reti, non siamo più vicini marker di rischio tumorale?"
a comprenderle di quanto lo siamo a comprendere un
cervello umano". L'anno scorso, Tyka e i suoi colleghi di Google hanno
seguito un approccio simile fino alle sue estreme
Per gli scienziati che hanno a che fare con grandi basi conseguenze. Il loro algoritmo, che hanno chiamato
di dati, questo rende l'apprendimento profondo uno Deep Dream, parte da un'immagine - per esempio un
strumento da usare con cautela. Per capire perché, dice fiore o una spiaggia - e la modifica per migliorare la
Andrea Vedaldi, informatico all'Università di Oxford, in risposta di un particolare neurone di livello superiore.
Gran Bretagna, immaginiamo  che in un prossimo futuro Se al neurone piace contrassegnare le foto come uccelli,
una rete neurale di apprendimento profondo sia addestrata per esempio, l'immagine modificata inizierà mostrando
usando vecchie mammografie classificate in base a quali uccelli dappertutto. Le immagini risultanti evocano i viaggi
donne hanno continuato a sviluppare il cancro del seno. con l'LSD, con gli uccelli che emergono da volti, edifici
Dopo questo addestramento, dice Vedaldi, il tessuto di e molto altro ancora. "Penso che sia molto più simile a
una donna apparentemente sana potrebbe già rivelarsi un'allucinazione" che a un sogno, dice Tyka, che è anche
canceroso alla macchina. "La rete neurale potrebbe un artista. Quando lui e la sua squadra hanno visto il
avere implicitamente imparato a riconoscere i marcatori potenziale di un uso creativo dell'algoritmo, lo hanno reso
- caratteristiche che noi non conosciamo, ma che sono disponibile permettendo a chiunque di usarlo. In pochi
predittive del cancro," dice. giorni, Deep Dream è diventato virale on-line.

le Scienze 45 I quaderni
guida autonoma a sbattere su un cartellone che pensa sia
una strada, o ingannare uno scanner della retina facendo
entrare un intruso alla Casa Bianca, inducendo la rete a
credere che sia Barack Obama. "Dobbiamo rimboccarci
le maniche e fare scienza dura per rendere le macchine di
apprendimento profondo più robuste e più intelligenti",
conclude Clune.

Problemi come questi hanno portato alcuni informatici


a pensare che in fondo l'apprendimento con le reti
neurali non dovrebbe essere l'unica carta da giocare.
Zoubin Ghahramani, che studia apprendimento
Un’immagine fotografica e la sua elaborazione con Deep Dream (Cortesia Google)
automatico a Cambridge, in Gran Bretagna, dice che
se l'IA deve dare risposte che gli esseri umani possono
facilmente interpretare, "c'è un mondo di problemi per
i quali l'apprendimento profondo non è la risposta".
Un approccio relativamente trasparente e in grado di
fare scienza è stato presentato nel 2009 da Lipson e dal
biologo computazionale Michael Schmidt, ora alla Cornell
University di Ithaca, New York. Il loro algoritmo, chiamato
Eureqa, ha dimostrato di poter riscoprire le leggi della
fisica newtoniana solo guardando un oggetto meccanico
relativamente semplice - un sistema di pendoli - in
movimento.

Partendo da una combinazione casuale di "mattoni"


matematici come +, -, seno e coseno, Eureqa segue un
metodo per tentativi ed errori ispirato all'evoluzione
darwiniana per modificare via via i termini fino ad arrivare
alle formule che meglio descrivono i dati. Poi propone
degli esperimenti per testare i suoi modelli. Uno dei suoi
Altre immagini prodotte da Deep Dream, questa volta a partire da rumore di fondo
(Cortesia Google)
vantaggi è la semplicità, dice Lipson. "Un modello prodotto
da Eureqa ha di solito una dozzina di parametri. Una rete
Usando tecniche che potrebbero massimizzare la risposta neurale ne ha milioni. "
di qualsiasi neurone, non solo di quelli di primo livello,
nel 2014 la squadra di Clune ha scoperto che il problema Il pilota automatico
della scatola nera potrebbe essere più serio del previsto: L'anno scorso, Ghahramani ha pubblicato un algoritmo
è sorprendentemente facile ingannare le reti neurali con che consente di automatizzare il lavoro di uno scienziato,
immagini di persone che sembrano un rumore casuale, o dall'osservazione dei dati grezzi fino alla scrittura di un
motivi geometrici astratti. Per esempio, una rete potrebbe articolo. Il suo software, chiamato Automatic Statistician,
vedere le linee sinuose e classificarle come una stella ha rilevato nell'insieme di dati tendenze e anomalie e ha
marina, o scambiare delle strisce bianche e gialle per uno presentato la sua conclusione, tra cui una spiegazione
scuolabus. Inoltre, gli schemi scelti hanno suscitato le dettagliata della sua motivazione. Una simile trasparenza,
stesse reazioni in reti che erano state addestrate su insiemi dice Ghahramani, è "assolutamente cruciale" per
di dati differenti. l'applicazione nella scienza, ma è importante anche per
molte applicazioni commerciali. Per esempio, spiega,
I ricercatori hanno proposto una serie di approcci in molti paesi le banche che negano un prestito hanno
per risolvere il problema dell'inganno, ma finora non l'obbligo legale di dire perché, cosa che un algoritmo di
è emersa alcuna soluzione generale. E questo nel apprendimento profondo potrebbe non essere in grado di
mondo reale potrebbe essere pericoloso. Uno scenario fare.
particolarmente spaventoso, dice Clune, è quello in cui
hacker malintenzionati potrebbero imparare a sfruttare Preoccupazioni analoghe valgono per una vasta gamma di
queste debolezze. Potrebbero mandare una macchina a istituzioni, sottolinea Ellie Dobson, direttore di una sezione

le Scienze 46 I quaderni
della Arundo Analytics di Oslo, una società di trattamento
di grandi quantità di dati. Se qualcosa dovesse andare
storto a causa dei tassi di interesse fissati in Gran Bretagna,
dice Dobson , "la Bank of England non può dire, 'la scatola
nera mi ha fatto fare così'".

Dettaglio del Computer/Data Center del CERN (© Dean Mouhtaropoulos/GettyImages)

Nonostante questi timori, gli informatici sostengono che gli


sforzi per creare una IA trasparente dovrebbero essere visti
come complementari all'apprendimento profondo, non
come sostitutivi. Alcune delle tecniche trasparenti possono
funzionare bene per problemi che sono già descritti come
un insieme di fatti astratti, dicono, ma non sono molto
bravi nella percezione, osia nel processo di estrazione di
fatti dai dati grezzi.

In definitiva, sostengono questi ricercatori, le complesse


risposte date dall'apprendimento automatico devono far
parte degli strumenti della scienza, perché il mondo reale
è complesso: per fenomeni come il clima o il mercato
azionario, una sintetica descrizione riduzionista potrebbe
anche non esistere. "Ci sono cose che non possiamo
verbalizzare", afferma Stéphane Mallat,  matematico
all'Ecole Polytechnique di Parigi. "Quando si chiede a un
medico perché ha diagnosticato questo o quello, cercherà
di darvi alcuni motivi", dice. "Ma come mai ci vogliono
20 anni per fare un buon medico? Perché l'informazione
non è solo nei libri ". Per Baldi, gli scienziati dovrebbero
abbracciare l'apprendimento profondo senza essere
"troppo pignoli" sulla scatola nera. Dopo tutto, tutti hanno
una scatola nera nella loro testa. "Usiamo continuamente
il cervello; ci fidiamo continuamente del nostro cervello; e
non abbiamo idea di come funziona ".

www.lescienze.it, 22 ottobre 2016

le Scienze 47 I quaderni
L’IA potrà superare
l’intelligenza
umana?

Illustrazione di Stefano Fabbri

L’obiettivo dei ricercatori di intelligenza artificiale è fornire un supporto utile agli esseri umani per
superare i loro limiti ed estendere le loro capacità

di Francesca Rossi
Mi è stata proposta questa domanda molto stimolante definizione, quella di agente razionale, che risolve problemi
alla quale proverò a dare una risposta. Prima però vorrei cercando di capire il contesto in cui si trova e di selezionare
chiarire alcuni aspetti dell’intelligenza artificiale (IA). l’azione migliore da intraprendere in quel contesto per
risolvere il problema affidatogli. La razionalità non è certo
Ne parlano tutti, e sembra che tutti se ne occupino, a vario l’unico aspetto dell’intelligenza umana, ma ne rappresenta
titolo. Non solo i giornali, cartacei oppure on-line, che una parte significativa.
pubblicano articoli quasi ogni giorno su questa tecnologia,
ma anche i centri di ricerca, le università, le aziende, le Per esempio, per affrontare un problema banale come
associazioni di attivisti. Sembra che chi non si occupa di pulire il pavimento dalla polvere, un agente intelligente
intelligenza artificiale non sia interessato al futuro, e quindi dovrebbe prima capire se il pavimento è sporco, e poi
non sia aggiornato, competitivo e moderno. In questa sulla base di questa informazione decidere se attivare
pletora di documenti, principi, linee guida, corsi e altro, chi l’aspirapolvere o no, in modo che alla fine il pavimento
non è esperto potrebbe incorrere in una grande confusione, sia pulito e quindi il problema sia risolto. Già da questo
con il rischio di deduzioni e conclusioni grossolane e esempio molto semplice si capisce che l’agente deve essere
lontane dalla realtà. C’è quindi un grande bisogno di fare in grado di fare varie cose: ottenere dati dall’ambiente in
un po’ di chiarezza. cui si trova (tramite sensori di vario tipo, che sappiano
  ricevere immagini, testi, e altri segnali), trasformare
Qualche premessa questi dati in informazioni che siano rilevanti per il suo
Che cos’è l’IA? In poche parole, l’intelligenza artificiale è problema, ragionare su queste informazioni per analizzare
una disciplina scientifica (come la matematica, la fisica e e confrontare le varie azioni tra cui poter scegliere e poi
così via) che ha lo scopo di creare «agenti» artificiali (siano saper decidere quale azione intraprendere per risolvere il
essi programmi o robot, cioè sia software sia hardware) problema in modo ottimale.
che sappiano risolvere problemi in una modalità giudicata
«intelligente» per un essere umano. Questa è però ancora Nel nostro esempio relativo alla pulizia, l’agente
una definizione un po’ vaga. potrebbe essere dotato di una videocamera che fotografi
il pavimento, dovrebbe poi interpretare i pixel della
Che cos’è considerato intelligente per un essere umano? foto per capire se il pavimento è sporco o no, e poi usare
Per essere meno vaghi, e ottenere risultati concreti, i queste informazioni per decidere se azionare o meno
ricercatori di IA hanno cercato di capire che cosa sia un l’aspirapolvere. In generale, quindi, dato un problema
agente intelligente e poi usare questa definizione per da risolvere, un agente intelligente deve essere dotato
guidare la creazione di questi agenti. Ne è scaturita un’altra di sensori per raccogliere dati dall’ambiente, deve saper

le Scienze 48 I quaderni
trasformare i dati in conoscenza, ragionare su questa
conoscenza e poi individuare la decisione migliore.
In alcuni casi il problema non è così semplice, e non
è neanche chiaro come definirlo tramite regole (se il
pavimento è sporco, bisogna pulirlo, altrimenti no).
Per esempio, sapere riconoscere se una foto contiene
l’immagine di un gatto, sembra un problema semplice
per noi esseri umani. Ma per una macchina non lo
è, soprattutto perché non sappiamo definire bene la
procedura necessaria a risolvere il problema in tutte
le situazioni. Le immagini di gatti possono essere così
diverse tra loro da rendere difficile scrivere regole che
assicurino che il riconoscimento vada a buon fine in
tutti i casi. In queste situazioni, un’alternativa alle regole
Il robot di sicurezza APV3, presentato a Pechino nel 2018, è dotato di un sistema di
(cioè a un algoritmo di tipo procedurale) è permettere riconoscimento facciale basato sull’IA (© Nicolas Asfouri/AFP/Getty Images)
l’apprendimento tramite esempi. La macchina riceve in
ingresso esempi di foto che contengono gatti e di foto Un’altra area in cui c’è bisogno di chiarezza è la storia
che non li contengono (con l’umano che la istruisce su dell’IA, e di come siamo arrivati alla situazione attuale.
quali sono di un tipo e quali dell’altro), e poi cerca di Nonostante l’attenzione sull’intelligenza artificiale sia
generalizzare ciò che vede negli esempi in modo da poter cresciuta enormemente negli ultimi cinque o sei anni, in
risolvere il problema anche quando si trova di fronte realtà è una disciplina nata nel 1956, quando il termine
a foto mai viste prima. Questo è un approccio tipico Artificial Intelligence è stato coniato. E nel corso dei
dell’apprendimento automatico (machine learning). suoi sessant’anni ha visto molti alti e bassi, ottenendo
moltissimi risultati scientifici e prodotti usati in svariate
Naturalmente, affinché questo metodo funzioni bene sono situazioni reali. Anche se non ce ne rendiamo conto,
necessari tantissimi esempi, che coprano la maggior parte usiamo l’IA in quasi tutte le attività durante la nostra
delle situazioni, altrimenti la generalizzazione non potrà giornata: per esempio quando usiamo una carta di credito,
essere fatta con successo. In ogni caso, questo approccio è quando cerchiamo informazioni sul Web, quando facciamo
di tipo probabilistico (cioè la macchina associa una certa una foto, quando cerchiamo la strada più breve per andare
probabilità al fatto che ci sia un gatto nell’immagine che ha da un amico, quando parliamo al nostro telefonino invece
ricevuto), e ha sempre una percentuale di errore, sebbene di scrivere, quando usiamo uno dei tanti social media per
piccola. Invece nell’approccio con regole, assumendo che interagire con i nostri amici.
i sensori raccolgano dati accurati e che le regole coprano
tutti i casi possibili, si può essere sicuri della risoluzione del Ma se l’IA ha quasi sessant’anni, allora perché tanto
problema. interesse (e anche alcune preoccupazioni) solo adesso?
Perché negli ultimi anni le possibilità di applicare l’IA
I due approcci sono spesso combinati tra loro. Per esempio, in situazioni reali (cioè fuori da ambienti ben definiti e
il problema della pulizia può usare l’apprendimento controllati) è cresciuta enormemente, a causa dell’uso
automatico per capire se il pavimento è sporco oppure delle tecniche di apprendimento automatico descritte in
no, e poi può usare questa conoscenza per decidere precedenza. In realtà queste tecniche erano state definite
l’azione migliore da intraprendere. Inoltre, di solito già negli anni ottanta, ma fino a pochi anni fa non c’erano
un agente intelligente non si trova ad agire in solitario, abbastanza dati su cui allenarle, né i computer erano
ma in affiancamento ad altri agenti o esseri umani; per abbastanza potenti per gestire tutti questi dati.
risolvere collettivamente un problema è quindi necessario
che sappia anche colloquiare con altri agenti o con esseri Un’altra cosa da chiarire è che l’intelligenza artificiale è
umani, scambiando dati e conoscenza per arrivare alla ancora a uno stadio abbastanza primitivo. Ci sono tante
soluzione. cose che non sappiamo come codificare in un agente
artificiale. Alcuni esempi: saper avere un dialogo con un
Spero che a questo punto sia evidente quanto l’IA sia una essere umano (anche se alcuni progetti di ricerca stanno
disciplina complessa, con molte sottodiscipline di ricerca aprendo nuovi scenari), sapere ragionare con il senso
che si occupano di trovare le soluzioni e i metodi migliori comune (cioè sapere come funziona il mondo e usare
per le varie attività che un agente intelligente deve poter questa conoscenza per capire che cosa è ragionevole fare o
svolgere. tentare di fare), o anche saper apprendere da pochi esempi,

le Scienze 49 I quaderni
purché siano fornite ulteriori informazioni sul concetto
generale. Per esempio, sapere come è fatto un gatto in
generale può ridurre la quantità di esempi da dover fornire
a un agente intelligente per poter capire come riconoscerlo,
e può aiutarlo a velocizzare l’apprendimento di soluzioni
a problemi simili, come riconoscere un cane invece che un
gatto.
 
Intelligenze complementari
Fatte queste dovute premesse, possiamo tornare ad
affrontare la domanda iniziale: fin dove arriverà l’IA? In
altre parole, è più o meno intelligente degli umani, e se non  
Un’immagine della presentazione del Google Artificial Intelligence Center in Ghana,
ancora ora, potrà diventarlo in futuro? Avevo promesso il primo centro di intelligenza artificiale aperto in Africa (© Cristina Aldehuela/Getty
una risposta, ma ho un po’ barato perché secondo me Images)
la domanda non è ben posta. L’intelligenza (sia umana
che artificiale) non si muove su una linea retta che rende Un futuro ottimista
semplice dire chi sia più avanti e chi più indietro. È Ci sono però altri punti di attenzione che vale la pena tenere
invece formata da caratteristiche e capacità specifiche presenti e che sono molto attuali e concreti. Uno riguarda
e intercorrelate, che contribuiscono tutte a definire la possibilità che l’IA prenda decisioni discriminatorie, cioè
un insieme di comportamenti che associamo all’idea che porti con sé pregiudizi (bias). Per esempio, quando
di intelligenza umana. Se ci focalizziamo su specifiche una banca nega il mutuo a una persona non vogliamo che
capacità, in alcune di esse l’IA è già molto superiore agli questa decisione sia basata su fattori come razza o sesso.
esseri umani. Per esempio, noi non riusciamo a gestire e Vogliamo che si basi solo su dati che siano rilevanti per
trovare correlazioni utili in grandi quantità di dati, e non l’accensione del mutuo e la capacità o meno di ripagarlo.
siamo bravi a fare ragionamenti probabilistici complessi. Perché l’IA dovrebbe essere discriminatoria? Il problema è
che, se si usano tecniche come quelle di machine learning,
Per affrontare problemi specifici è stato dimostrato in la discriminazione potrebbe essere nascosta nella grande
modo esplicito (con competizioni pubbliche) che l’IA è quantità di esempi forniti alla macchina. Se questi esempi
già più efficace di noi, come nel giocare a scacchi (Murray non rappresentano la pluralità delle possibili situazioni, per
Campbell, del Thomas J. Watson Research Center IBM di la macchina sarà difficile generalizzare bene.
Yorktown Heights, su «Artificial Intelligence» nel 2002)
o a Go (David Silver, di DeepMind, su «Nature» nel 2017), Per esempio, se gli esempi contenessero solo casi di mutuo
o anche nel rispondere correttamente a domande su elargiti a uomini e rifiutati a donne, allora la macchina
tanti argomenti come quelle del gioco Jeopardy! (David assocerà il sesso all’accettazione o meno della richiesta
Ferrucci, del Thomas J. Watson Research Center di IBM di di mutuo e quando le verrà chiesto di decidere su una
Hawthorne, su «AI Magazine» nel 2010). nuova richiesta potrebbe usare questa caratteristica
del richiedente per proporre la sua decisione. È quindi
Ma gli esseri umani hanno capacità che spaziano in molti importante che i dati con cui la macchina è istruita siano
altri campi, e le sanno collegare tra loro tramite analogie curati attentamente, per evitare possibili discriminazioni. Il
o altre tecniche, e questo ci aiuta a risolvere problemi processo di apprendimento da parte della macchina è reso
complessi che ancora l’IA non sa risolvere bene quanto ancora più complesso dal fatto che le caratteristiche su cui
noi. In realtà comunque, lo scopo degli studi della maggior non vorremmo discriminare sono molte, e spesso correlate
parte dei ricercatori di IA non è superare gli umani, ma di tra loro. Inoltre, il problema può venire anche da altri
aiutarli a sviluppare ed estendere le loro capacità fornendo moduli del sistema di IA, non solo dai dati. È comunque
un supporto utile a colmare i loro limiti. L’obiettivo è incoraggiante che molti ricercatori stiano già lavorando
realizzare una sorta di assistente intelligente che ci aiuti su questi problemi, con soluzioni parziali di vario tipo che
a fare meglio qualunque attività sia necessario portare presto potranno essere inserite in ogni strumento di IA.
avanti, anziché fare a gara con noi su chi fa meglio ogni
attività. Umani e IA sono complementari nelle loro forme Un altro punto di attenzione riguarda la necessità di
di intelligenza, e i risultati migliori si ottengono proprio seguire principi etici (o codici di condotta, o norme sociali)
sfruttando questa complementarità. Quindi non mi nello svolgimento di una certa attività. Per esempio, i
preoccuperei troppo per una «possibile conquista del medici hanno un codice deontologico che devono seguire
mondo» da parte dell’IA. nel prendere decisioni nel loro lavoro. Se vogliamo

le Scienze 50 I quaderni
affiancare un sistema di IA a un medico affinché lo aiuti a Dal mio punto di vista, penso si possa avere una visione
prendere decisioni più informate, per esempio fornendogli complessivamente ottimista di un futuro in cui l’IA
i risultati scientifici o di altri casi simili a quello del paziente permetterà una migliore qualità della vita e fornirà
in cura, dobbiamo essere sicuri che questo sistema di soluzioni a problemi per ora irrisolti. Ma soprattutto, nel
IA sia coerente anche con il codice etico da seguire e che capire quali valori inserire in una tecnologia così potente
sappia seguirlo nel proporre al medico possibili opzioni e pervasiva, dovremo anche riflettere sui nostri valori
di decisione. Per esempio, siamo sicuri che la macchina fondamentali, e quindi potremo definire e creare, tramite la
sappia gestire i dati dei pazienti rispettando le leggi sulla tecnologia stessa, un futuro allineato con questi valori.
privacy in vigore nello Stato in cui opera? Oppure, sa che
la scelta della terapia per un paziente non deve basarsi su L'autrice
considerazioni relative al budget, ma solo sul beneficio Francesca Rossi lavora al centro di ricerca IBM di
per la salute? È quindi importante capire come codificare Yorktown Heights, a New York. È leader globale
specifici principi etici in una macchina, come fare in modo sull’etica dell’IA per l’IBM, e professore di informatica
che li segua nel prendere le sue decisioni, e anche come (in aspettativa) all’Università di Padova. Da trent’anni si
fornirle informazioni per aiutare l’essere umano a seguirli occupa di IA, ed è nel comitato editoriale delle principali
lui stesso, eventualmente segnalandogli deviazioni. Anche riviste del settore.
qui, lo stato della ricerca è incoraggiante, ma è comunque  
necessario ancora molto studio e lavoro. Le Scienze, n. 601, settembre 2018

Altro tema molto sentito e importante è la fiducia nell’IA.


Come possiamo fidarci di quello che l’IA fa o dice, o
che ci suggerisce di fare, anche se non sappiamo bene
come funziona? E come possiamo arrivare a una fiducia
contestualizzata, che sappia riconoscere sia le capacità
che i limiti dell’intelligenza artificiale? Non vogliamo
fidarci ciecamente, ma neanche non fidarci affatto. In
entrambi i casi sarebbe pericoloso, per il rischio di perdere
opportunità o di conseguenze non desiderate. È quindi
essenziale dare all’IA la capacità di comunicare in modo
comprensibile quali siano le sue capacità e limiti, e agli
essere umani la possibilità di chiedere spiegazioni all’IA
sul suo comportamento. Come richiede anche la legge
General Data Protection Regulation, entrata in vigore in
Europa in maggio, una persona ha il diritto di ricevere una
spiegazione comprensibile da un sistema autonomo che
abbia preso una decisione che ha un impatto sulla vita della
persona stessa.

È necessario uno studio attento dell’impatto dell’IA


sulla nostra società, sul modo in cui lavoriamo, viviamo,
interagiamo con gli altri, e, più a lungo termine, su che
effetti possa avere sui nostri figli crescere completamente
immersi in questa tecnologia. Dobbiamo riflettere bene su
che cosa vogliamo ottenere grazie all’uso di una tecnologia
così potente, e non pensare solo a che cosa possiamo fare
con l’IA, ma soprattutto a che cosa vogliamo fare con l’IA.
Queste sono decisioni globali che naturalmente non vanno
prese solo tra esperti di IA, ma vanno raggiunte tramite
una discussione multiculturale, multidisciplinare e che
coinvolga sia chi produce la tecnologia sia chi la userà
o la dovrà «subire» nel corso della vita, in un ambito
di responsabilità condivise tra aziende che usano l’IA e
governi che ne regolano l’uso.

le Scienze 51 I quaderni