Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
e nuovo umanesimo
Anno accademico 2020/2021
Salvatore Carrubba
salvatore.carrubba@iulm.it
salvatore.carrubba@ilsole24ore.com
335.5648313
00 $
32 . 5
a 4
du to 18
n
20
obre
e
o tt
V o rk, 25
Y
s N ew
tie ’
C hris
ta di
s
all’a
Intelligenza artificiale
Guida al futuro prossimo
Luiss, 2017
Un punto in comune…
• “Tutte le definizioni di IA (sono) più o meno
allineate sul concetto di creare programmi
informatici o macchine capaci di
comportamenti che riterremmo intelligenti se
messi in atto da esseri umani”.
…e una definizione possibile
«Ricadono nell'ambito dell’IA quei sistemi progettati
dall’uomo in forma di software (ed eventualmente
hardware) che agiscono nella dimensione fisica o digitale e
che dato un obiettivo complesso percepiscono il proprio
ambiente attraverso l’acquisizione di dati strutturali o meno,
interpretandoli e ragionando sulla conoscenza o elaborando
le informazioni derivate da questi, decidendo le migliori
azoni da intraprendere per raggiungere l’obiettivo dato».
Il robot Paro
• Divertimento* (es: Pepper)
* e non solo: nell’agosto 2017, Pepper è stato utilizzato anche per svolgere le funzioni
del prete buddista nei funerali.
• La visione artificiale
• Anche in questo ambito si usa il machine
learning, per costruire modelli di oggetti da
grandi collezioni di esempi.
• Progressi notevoli! Le percentuali di errori non
superano il 5% e sono diminuite moltissimo in
pochi anni.
• Ulteriori prospettive: «includere
l’identificazione di immagini nel video e
descrivere scene di carattere maggiormente
narrativo».
• Ma soprattutto: far vedere cose che noi non
vediamo.
• Ambito dell’informazione!
• Riconoscimento vocale
• Problema particolarmente complesso.
• Differenze coi sistemi di riconoscimento delle
immagini.
• Applicazione del machine learning.
Due approcci contrapposti
IA forte v. IA debole
• Le macchine hanno una mente o
finiranno per averla.
• No, esse simulano, non duplicano
l’intelligenza umana.
Insomma: sono davvero intelligenti, o
sono solo capaci di agire «come se» lo
fossero?
Un computer può pensare?
Al termine di un complesso
ragionamento, basato sul «gioco
dell’imitazione» per individuare
chi di due interlocutori
misteriosi fosse l’uomo e chi la
donna («test di Turing»),
concludeva: «Ritengo che la
domanda originale, ‘le macchine
possono pensare?’, sia troppo
priva di senso per meritare di
essere discussa. Sono
nondimeno convinto che alla fine
del secolo l’uso delle parole e la
generale opinione pubblica colta
Benedict Cumberbatch nel film The Imitation Game,
di Morten Tyldum. saranno cambiate così tanto che
si potrà parlare di macchine che
pensano senza timore di essere
contraddetti».
Una disputa accesa
• I computer non possono pensare perché non
intendono effettivamente dire o fare alcunché. Siamo
noi che associamo le loro computazioni al mondo reale
(così, il filosofo John Searle).
• Searle non «postula una qualche magica proprietà
della mente umana capace di trascendere la scienza»;
dice semplicemente che nel nostro cervello capita
qualcosa che non comprendiamo ancora e che,
quando ci riusciremo (cosa che ritiene probabile), ci
consentirà di capire cosa sia il pensare, la coscienza, la
sensazione di provare delle cose, la consapevolezza di
esistere e così via.
Perciò conclude:
• «I computer sono delle zucche vuote».
Ha ragione Searle?
• Per Kaplan, « i programmi per computer, presi
per sé, non concordano affatto con quello che
comunemente intendiamo per ‘pensare’. I
programmi si limitano ’semplicemente’ a
svolgere sequenze di azioni logiche e
deterministiche, per quanto complesse,
cambiando la loro configurazione interna da
uno stato all’altro».
Un paragone con noi stessi
• «Se pensate che il nostro cervello non sia altro che
un manipolatore di simboli fatto di materiale
biologico, allora non potete che giungere alla
conclusione che neanche il vostro cervello, di per
sé, sappia pensare.
• Se la manipolazione simbolica è la base
dell’intelligenza, allora o sia le persone che le
macchine sono in grado di pensare (per principio,
non in pratica, ad oggi), o né le une né le altre lo
sono».
Un’ulteriore conferma
Daniel Dennett:
Una super-intelligenza che superi quella umana e
acquisti la capacità di agire autonomamente è
logicamente possibile. Ma essa rappresenta una
pericolosa fantasia. Noi attribuiamo una capacità di
comprendere molto superiore a quella che i robot
possiedono. E attribuire agli assistenti digitali nomi e
caratteristiche umane aumenta la confusione. “Quello
che vedremo nella nostra esistenza saranno strumenti
intelligenti, non colleghi. Non pensiamo ai robot come
colleghi, non cerchiamo di renderceli colleghi e,
soprattutto, non inganniamo noi stessi considerandoli
colleghi”.
(Fonte: John Thornhill, “Don’t kid yourself that robots are colleagues”, Financial Times, 4-5 marzo 2017)
I computer hanno il libero arbitrio?
Secondo alcuni, no, perché:
• lavorando secondo princìpi ingegneristici
precisi, sono sempre prevedibili;
• non considerano le possibili scelte nello
stesso modo in cui lo fanno gli esseri umani.
Ma: «Non aver mai torto non è equivalente a
saper prevedere il comportamento in modo
affidabile».
Come decidono i computer
«A differenza delle persone, abbiamo un’idea
abbastanza precisa di come funzionano.
Nondimeno sono in grado di fare scelte senza
fare affidamento alla casualità.
Sono capaci di soppesare l’evidenza, applicare
conoscenze e competenze, fare scelte in
situazioni di incertezza, assumersi rischi,
modificare i loro stessi piani sulla base di
informazioni aggiuntive, ….
…osservare i risultati delle proprie azioni,
ragionare (nel caso dell’elaborazione simbolica),
o utilizzare quello che potremmo chiamare
intuito (ad esempio, quando il machine learning
viene utilizzato come base per un’azione da
intraprendere in mancanza di una più
approfondita comprensione dei nessi causali).
Infine, sono capaci di utilizzare metafore e
analogie per risolvere i problemi».
Non tutto è chiaro
In realtà, il tema della decisione e del libro
arbitrio non ha tanto a che fare con la possibilità
che il robot smetta di seguire le istruzioni e
decida di testa propria, ma con la questione che
“il robot, pur facendo quello per cui è
programmato, lo esegua, o tenti di eseguirlo, ma
in un modo che (a noi) è incomprensibile”.
(Luciano Floridi, “Roman law offers a better guide to robot rights than science-fi”,
Financial Times, 22 febbraio 2017).
L’evoluzione dell’homo sapiens
?
• I latini distinguevano “tra sapientia (l’abilità, la capacità di
pensare con intelligenza) e sententia (l’opinione, il
giudizio, ossia la capacità di valutare esperienze
soggettive)”.
• Le macchine potranno sfidare l’homo sapiens; “ma
acquisire la coscienza elettronica, che presuppone cogliere
il significato, sarà un passo più importante. Se gli umani
vogliono difendere il proprio eccezionalismo, secondo Max
Tegmark (autore di “Being Human in the Age of Artificial
Intelligence”), forse è il momento di ribattezzarci come
Homo sentiens”.
(Fonte: John Thornhill, “Competent computers still cannot comprehend”, in Financial
Times, 9 gennaio 2018).
Cambierà anche il diritto
• Oggi gli avvocati non sono incentivati ad
adottare tecnologie che facciano loro
risparmiare tempo e alle quali possano
accedere i potenziali clienti.
Una mano agli avvocati
Come funziona il ‘predictive coding’: procuratori
umani passano in rassegna un gruppo di
documenti campione, scelti statisticamente per
rappresentare l’intera collezione; poi inizia a
lavorare un programma di machine learning, per
identificare i criteri che gli permetteranno di
avvicinarsi quanto più possibile alla performance
umana; e così via finché il programma non è in
grado di selezionare i programmi da solo.
L’IA può commettere reati?
Perché no?
A un programma si può riconoscere la capacità
di agire moralmente se è in grado di
comprendere le conseguenze del suo
comportamento; e se può scegliere come
comportarsi.
E oggi si può scrivere un programma che sappia
cosa sta facendo, sappia che è illegale, e possa
scegliere cosa fare.
Come insegnare l’etica ai robot
• GoodAI: «L’idea è quella di addestrare l’IA a applicare la
propria conoscenza a situazioni che non hanno mai
precedentemente incontrato» (Marek Rosa, fondatore);
• Ron Arkin: «L’"adattatore etico" cerca di simulare le
emozioni dell’uomo, piuttosto che emularne il
comportamento, in modo da aiutare il robot a imparare
dai propri errori. Questo sistema consente al robot di
sperimentare qualcosa di simile al concetto di colpa».
• Mark Riedl: «Usare le storie per ridurre il tempo di
apprendimento».
(Fonte: Simon Parkin, Teaching robots right from wrong, 1843, giugno-luglio
2017)
I princìpi di Asilomar
• “Questi princìpi parlano di ricerca, che deve essere rivolta a
studiare un’IA sicura e a impatto positivo, in un ambiente di
collaborazione tra ricercatori, programmatori e politici. Inoltre,
vengono citati valori importanti come privacy, trasparenza,
responsabilità, allineamento ai valori umani , libertà, prosperità e
controllo umano, che debbono essere sempre presi in
considerazione nel costruire l’IA. Infine, non mancano princìpi
per preoccupazioni più a lungo termine, come la singolarità, e
altri che spingono verso metodi per assicurare che l’Ia sia di
supporto al benessere di tutti e non solo di un singolo stato o
organizzazione”.
Francesca Rossi, Il confine del futuro - Possiamo fidarci
dell’intelligenza artificiale?, Feltrinelli, 2019
Research Issues
• Research Goal: The goal of AI research should be to create not undirected
intelligence, but beneficial intelligence.
• Research Funding: Investments in AI should be accompanied by funding for
research on ensuring its beneficial use, including thorny questions in
computer science, economics, law, ethics, and social studies, such as:
How can we make future AI systems highly robust, so that they do what we
want without malfunctioning or getting hacked?
How can we grow our prosperity through automation while maintaining
people’s resources and purpose?
How can we update our legal systems to be more fair and efficient, to keep pace
with AI, and to manage the risks associated with AI?
What set of values should AI be aligned with, and what legal and ethical status
should it have?
• Science-Policy Link: There should be constructive and healthy exchange
between AI researchers and policy-makers.
• Research Culture: A culture of cooperation, trust, and transparency should be
fostered among researchers and developers of AI.
Ethics and Values
• Safety: AI systems should be safe and secure throughout their operational lifetime, and verifiably so
where applicable and feasible.
• Failure Transparency: If an AI system causes harm, it should be possible to ascertain why.
• Judicial Transparency: Any involvement by an autonomous system in judicial decision-making should
provide a satisfactory explanation auditable by a competent human authority.
• Responsibility: Designers and builders of advanced AI systems are stakeholders in the moral
implications of their use, misuse, and actions, with a responsibility and opportunity to shape those
implications.
• Value Alignment: Highly autonomous AI systems should be designed so that their goals and behaviors
can be assured to align with human values throughout their operation.
• Human Values: AI systems should be designed and operated so as to be compatible with ideals of human
dignity, rights, freedoms, and cultural diversity.
• Personal Privacy: People should have the right to access, manage and control the data they generate,
given AI systems’ power to analyze and utilize that data.
• Liberty and Privacy: The application of AI to personal data must not unreasonably curtail people’s real
or perceived liberty.
• Shared Benefit: AI technologies should benefit and empower as many people as possible.
• Shared Prosperity: The economic prosperity created by AI should be shared broadly, to benefit all of
humanity.
• Human Control: Humans should choose how and whether to delegate decisions to AI systems, to
accomplish human-chosen objectives.
• Non-subversion: The power conferred by control of highly advanced AI systems should respect and
improve, rather than subvert, the social and civic processes on which the health of society depends.
• AI Arms Race: An arms race in lethal autonomous weapons should be avoided.
Longer-term Issues
• Capability Caution: There being no consensus, we should avoid
strong assumptions regarding upper limits on future AI
capabilities.
• Importance: Advanced AI could represent a profound change in the
history of life on Earth, and should be planned for and managed
with commensurate care and resources.
• Risks: Risks posed by AI systems, especially catastrophic or
existential risks, must be subject to planning and mitigation efforts
commensurate with their expected impact.
• Recursive Self-Improvement: AI systems designed to recursively
self-improve or self-replicate in a manner that could lead to rapidly
increasing quality or quantity must be subject to strict safety and
control measures.
• Common Good: Superintelligence should only be developed in the
service of widely shared ethical ideals, and for the benefit of all
humanity rather than one state or organization.
I diritti e le libertà da tutelare
• Rispetto della dignità umana;
• libertà individuale;
• rispetto della democrazia, della giustizia e dello
stato di diritto;
• uguaglianza, non discriminazione e solidarietà
(compresi i diritti delle persone a rischio di
esclusione);
• diritti dei cittadini.
(Fonte: Orientamenti etici per un’IA affidabile, a cura del Gruppo
indipendente di esperti ad alto livello sull’intelligenza artificiale,
istituito dalla Commissione europea nel giugno 2018; aprile 2019)
Quattro princìpi etici
• Rispetto dell’autonomia umana;
(I sistemi di IA non devono subordinare, costringere,
ingannare, manipolare, condizionare o aggregare in
modo ingiustificato gli esseri umani. Al contrario,
devono essere progettati per aumentare, integrare e
potenziare le abilità cognitive, sociali e culturali
umane);
• Prevenzione dei danni;
• Equità;
• Esplicabilità.
Siamo tutti coinvolti
Le diverse categorie di portatori di interessi rivestono
diversi ruoli nel garantire che i requisiti siano soddisfatti:
• a. gli sviluppatori attuano e applicano i requisiti ai
processi di progettazione e sviluppo;
• b. i distributori garantiscono che i sistemi che utilizzano
e i prodotti e i servizi che offrono soddisfino i requisiti;
• c. gli utenti finali e la società in generale sono informati
su questi requisiti e hanno la facoltà di domandarne il
rispetto.
Quali sono i requisiti principali
1 Intervento e sorveglianza umani
Inclusi i diritti fondamentali, l'intervento umano e la sorveglianza umana;
2 Robustezza tecnica e sicurezza
Inclusi la resilienza agli attacchi e la sicurezza, il piano di emergenza e la sicurezza generale,
la precisione, l'affidabilità e la riproducibilità;
3 Riservatezza e governance dei dati
Inclusi il rispetto della riservatezza, la qualità e l'integrità dei dati e l'accesso ai dati;
4 Trasparenza
Incluse la tracciabilità, la spiegabilità e la comunicazione;
5 Diversità, non discriminazione ed equità
Incluse la prevenzione di distorsioni inique, l'accessibilità e la progettazione universale, e la
partecipazione dei portatori di interessi;
6 Benessere sociale e ambientale
Inclusi la sostenibilità e il rispetto ambientale, l'impatto sociale, la società e la democrazia;
7 Accountability
Inclusi la verificabilità, la riduzione al minimo degli effetti negativi e la loro segnalazione, i
compromessi e i ricorsi.
Fonte:
Borsa
Italiana
In cosa consiste
La 4° rivoluzione industriale è caratterizzata
«dall’ingresso delle cosiddette "tecnologie convergenti",
quelle che risultano dalla combinazione sinergica delle
• nanotecnologie,
• biotecnologie,
• tecnologie dell’informazione,
• scienze cognitive:
in acronimo NBIC»
(Fonte: Carlo De Benedetti, Perché l’internet delle cose è la frontiera della crescita, Il Sole-24
Ore, 27 aprile 2016).
La crescita del mercato
• Nel 2017 2,4mld di apparati erano connessi in
ambito business;
• nel 2018, 3,1;
• nel 2020, 7,6.
(dati Gartner, cit. in Ed Crooks, Industriale Futures, Financial Times, 28 giugno 2017)-
Fonte: “The Future of Work, Oecd Employment Outlook 2019”, Parigi, 2019.
Colpiti i più poveri
• Lo studio Frey-Osborne e quello dell’Ocse «concordano sul
fatto che i lavori non qualificati sono i più soggetti al rischio
di automazione. Quando Il Council of Economic Advisers di
Barak Obama ha utilizzato i nostri calcoli per individuare le
occupazioni più a rischio in base al livello salariale, ha
notato che l’83% dei lavoratori che sono pagati meno di 20$
l’ora è ad alto rischio di sostituzione mentre per i lavoratori
pagati più di 40$ l’ora la percentuale si riduce al 4%. Ciò
dimostra che le prospettive occupazionali per chi non ha
una specializzazione continueranno a peggiorare, a meno
che altre forze non si contrappongano a questa tendenza».
(Fonte: Rana Mitter, The case against equality, Financial Times, 25 gennaio 2020.
Daniel Bell e Pei Wang sono autori di Just Hierarchy: Why Social Hierarchies Matter in China
and the Rest of the World, Princeton Univ. Pr., 2020; rispettivamente sociologo e
informatico).
Robot che aiutino
• «L’introduzione di sistemi di IA nei luoghi di
lavoro non è una questione di robot che rubano
il lavoro agli umani, ma di macchine, nella
maggior parte dei casi non robot nel senso
hollywoodiano, ma software e sensori in grado
di aiutare le persone a svolgere un compito
meglio, più rapidamente, con maggiore
sicurezza e con costi più competitivi».
(Fonte: Dave Edwards, cit. in Guido Romeo, I lavori aumentati
dall’automazione, Il Sole-24 Ore, 11 marzo 2018).
Una vera collaborazione
(Fonte: Marco Magnani, Fatti non foste a viver come robot, Utet, 2020).
Il parere dell’Ocse
• I nuovi dati Ocse «confermano che, nei Paesi Ocse, anche a
seguito della digitalizzazione e della globalizzazione, la domanda
di competenze delle imprese si stia spostando verso la richiesta di
lavoratori in grado di svolgere mansioni complesse e in situazioni
’non strutturate’ e ad alto grado di imprevedibilità. Le abilità di
comunicazione, l’intelligenza sociale, la capacità di persuasione e
le abilità di negoziazione – dimensioni intrinsecamente legate alle
interazioni umane e difficili da automatizzare attraverso l’uso
dell’intelligenza artificiale o della robotica – sono fra le più
richieste nella maggior parte dei Paesi».
(Gavin Jackson, Why the robots haven’t risen yust jet, Financial
Times, 26 gennaio 2019).
Una conferma dalla Francia…
• «Tutto quello che ha a che fare con i bancomat, le casse
automatiche, i distributori automatici di biglietti in
stazione, sono esempi classici di automazione che
sostituisce il lavoro della persona di contatto, di
interfaccia, per esempio tra il supermercato e il cliente.
Questo lavoro non è sparito, è delegato ai consumatori
che diventano i cassieri di sé stessi, i bigliettai di sé stessi.
E resta la cassiera che fa un lavoro di psicologa, si occupa
di gestire le frustrazione del cliente che non riesce a
pagare da solo».
(Antonio A. Casilli, in Stefano Montefiori, Le macchine non
rubano il lavoro. Lo spostano, Corriere della sera, 17
febbraio 2019)
…e dagli Usa (e non solo)
«Amazon Go è il prototipo di una tecnologia sostitutiva. Oggi, negli Stati Uniti, 3,5
milioni di americani lavorano come cassieri. Ma nel negozio Amazon Go non vi sono
cassieri e nemmeno casse self-service. I clienti entrano, scannerizzano quello di cui
hanno bisogno.
Per ottenere questo risultato, Amazon sta sfruttando gli ultimi progressi nella visione
artificiale, nel deep learning e nella tecnologia dei sensori. Questi ultimi seguono i
clienti e identificano gli articoli che essi prendono e portano con loro. Amazon
addebita poi il conto sulla carta di credito strisciata al tornello di uscita e invia la
ricevuta alla app Go. Dopo il ritardo nell’inaugurazione del primo negozio di questo
tipo a Seattle, a causa di difficoltà nel tracking di più persone e oggetti, Amazon adesso
gestisce tre negozi Go a Seattle e un altro a Chicago, e ha pianificato l’apertura di altri
tremila negozi entro il 2021.
Anche aziende come Tencent, Alibaba e JD.com stanno investendo nell’intelligenza
artificiale per raggiungere lo stesso obiettivo.
Anche le aziende cinesi come JD.com hanno cominciato a investire più massicciamente
nei magazzini senza personale».