Sei sulla pagina 1di 167

Intelligenza artificiale

e nuovo umanesimo
Anno accademico 2020/2021

Salvatore Carrubba

salvatore.carrubba@iulm.it
salvatore.carrubba@ilsole24ore.com
335.5648313
00 $
32 . 5
a 4
du to 18

n
20
obre

e
o tt

V o rk, 25
Y
s N ew
tie ’
C hris
ta di
s
all’a

Ritratto di Edmond de Belamy


Es Devlin, “Please Feed The Lion”, Londra, Trafalgar Square, dal 18 settembre 2018
Jerry Kaplan
(docente di Computer science alla Stanford Un.)

Intelligenza artificiale
Guida al futuro prossimo

Luiss, 2017
Un punto in comune…
• “Tutte le definizioni di IA (sono) più o meno
allineate sul concetto di creare programmi
informatici o macchine capaci di
comportamenti che riterremmo intelligenti se
messi in atto da esseri umani”.
…e una definizione possibile
«Ricadono nell'ambito dell’IA quei sistemi progettati
dall’uomo in forma di software (ed eventualmente
hardware) che agiscono nella dimensione fisica o digitale e
che dato un obiettivo complesso percepiscono il proprio
ambiente attraverso l’acquisizione di dati strutturali o meno,
interpretandoli e ragionando sulla conoscenza o elaborando
le informazioni derivate da questi, decidendo le migliori
azoni da intraprendere per raggiungere l’obiettivo dato».

Fonte: Stefano Quintarelli, a cura di, Intelligenza Artificiale - Cos’è


davvero, come funziona, che effetti avrà, Bollati Boringhieri, 2020
Come funziona
«I sistemi di IA possono usare regole logiche o
apprendere un modello numerico, e possono anche
adattare il loro comportamento analizzando gli effetti che
le loro azioni precedenti hanno avuto sull'ambiente».
Comprende diversi approcci e tecniche, quali:
• l’apprendimento automatico;
• il ragionamento meccanico;
• la robotica»

(Fonte: Quintarelli, cit.)


Obiettivo della IA
“Buona parte della ricerca nel campo
dell’IA non (è) altro che un tentativo di
trovare soluzioni accettabili a problemi che
non possono essere soggetti a un’analisi
definitiva o a enumerazione per tutta una
serie di ragioni teoriche o pratiche”.

(Fonte, Kaplan, cit.)


Conclusione (provvisoria)
“L’essenza dell’IA – in effetti, l’essenza
dell’intelligenza – è la capacità di fare
generalizzazioni appropriate in modo
tempestivo e su una base di dati
limitata”.
Cos’è l’apprendimento
“Un processo di esecuzione di generalizzazioni
cronologicamente sequenziali che tiene conto
delle esperienze precedenti nelle analisi future,
proprio come ragionare per analogia significa
usare conoscenza proveniente da un
determinato campo come un nuovo contesto
per mezzo del quale generalizzare riguardo ad
altro”.
Come si imparano le lingue
• “I cervelli dei bambini sono specializzati per
imparare le lingue: essi operano sulla base di
princìpi statistici per cogliere gli schemi
linguistici.
• Gli adulti imparano le regole esplicitamente
mentre stanno imparando una lingua”.
(McAfee-Brynjolfsson, 2017).
Cosa c’è di nuovo
“La vasta scala e alcune tecniche
computazionali che sembrano imitare
certi aspetti del cervello umano, dando
l’idea che forse siamo davvero a un
passo dallo scoprire almeno alcuni dei
segreti più nascosti circa il
funzionamento della mente”.
Le possibili denominazioni
• Machine learning;
• Big data;
• Reti neurali (programma ispirato da
determinati, ipotetici principi
organizzativi di una vera rete neurale,
come il nostro cervello).
Come funzionano le reti neurali
“Le reti neurali artificiali possono essere pensate
come costruzioni che risuonano con modelli
arbitrariamente complessi presenti nei loro
input. Esse non imparano a ‘fare qualcosa’ nel
senso comunemente espresso da questa frase,
cioè non sviluppano una comprensione di
principio delle relazioni e delle proprietà del loro
mondo.
Piuttosto, esse somigliano a imitatori
incredibilmente talentuosi capaci di trovare le
correlazioni e a rispondere a input come se
dicessero ‘questo mi ricorda di…’ e, nel fare ciò,
di imitare le migliori strategie ‘distillandole’ da
un gran numero di esempi”.
Torna l’esempio delle lingue
“All’inizio, la comunità dell’IA si divise in due
gruppi:
• uno perseguiva il modello basato sulle regole,
o ‘simbolico’;
• l’altro costruiva sistemi di riconoscimento
basati su schemi statistici: la stessa differenza
tra le modalità di apprendimento dell’adulto e
del bambino”.
(McAfee –Brynjolfsson, cit.)
Dal neurone al percettrone
«Secondo l’interpretazione di Hebb, un cervello non è molto
difforme da un grandissimo e sofisticato computer.
Sembrava questa, dunque, la strada per replicare
l’intelligenza umana e costruire un cervello artificiale.
Su questa base, Warren McCulloch e Walter Pitts, in un
lavoro pioneristico, proposero un modello di neurone
artificiale e Frank Rosenblatt sviluppò il ‘percettrone’: un
semplicissimo costrutto informatico, in cui l’output è
determinato dalla ponderazione degli input. Il concetto era
semplice e fu fondamentale nella successiva formazione
delle reti neurali».

(Fonte: Stefano Quintarelli, cit.)


I possibili punti di incontro
I due approcci (ragionamento simbolico e
machine learning) hanno punti forti e punti
deboli diversi:
Il primo si presta meglio per problemi che
richiedono ragionamento astratto…
…mentre il secondo è più adatto in situazioni
dove è richiesta percezione sensoriale o dove
devono essere estratti schemi da dati caotici.
La debolezza del machine learning
• “Non serve a risolvere problemi privi di dati ma
(che abbiano) solo date condizioni iniziali, qualche
limitazione e un tentativo a diposizione per trovare
la soluzione….
• …Ma molti problemi che richiedano logica e
ragionamento sono sorprendentemente adatti alle
tecniche di machine learning: per es. problemi
algebrici, o attività umane che apparentemente
richiedono analisi, creatività, intelligenza e logica.
• Un’applicazione concreta:….
Matthew Ginsberg, il creatore di Dr.Fill, il programma per risolvere le parole crociate del New York Times
Perché si è affermato il Machine learning

Perché agli albori dell’IA:


• non erano disponibili computer sufficientemente
potenti per imparare artificialmente cose
interessanti;
• l’elaborazione dei dati richiedeva tempi
infinitamente più lunghi;
• la memoria per conservarli era ridotta;
• non c’erano sufficienti fonti di dati che potessero
essere letti artificialmente e dai quali le macchine
potessero imparare.
Oggi, invece…
• Miglioramenti nella velocità di calcolo e nelle
capacità di archiviazione;
• transizione dai dati conservati fisicamente a
quelli digitali;
• accesso semplificato, soprattutto grazie a
Internet;
• sensori digitali ad alta definizione e a basso
costo.
I campi d’applicazione
I robot
(Non si tratta solo) “della banale automazione
meccanica, (ma) del tentativo di costruire
dispositivi capaci di svolgere classi di compiti più
generali”: per es., il veicolo autonomo “che
riesce a percorrere le strade e a spartirsi gli spazi
di concerto con veicoli controllati da esseri
umani, bicilette e pedoni, nonostante le
continue novità e l’imprevedibilità”.
l rover Nasa
Opportunity (2004, in
alto) e Perseverance
(2020).
Ma anche:
• Interventi negli impianti nucleari (es: post
Fukushima);

• Assistenza robotizzata a infermi, anziani e


invalidi, anche di carattere psicologico, es:

Il robot Paro
• Divertimento* (es: Pepper)

* e non solo: nell’agosto 2017, Pepper è stato utilizzato anche per svolgere le funzioni
del prete buddista nei funerali.

• Assistenza domestica (es. Roomba980)


La frontiera più recente
• La robotica degli sciami: “Grandi gruppi di semplici
robot uniformi, relativamente semplici sono
programmati con regole e quando queste sono
applicate all’interno di un gruppo in forma
aggregata, i robot assumono un comportamento
complesso detto ‘comportamento emergente’”
(come avviene negli alveari, i cui membri, come
comunità, risolvono problemi che sono molto al di
sopra della comprensione o delle capacità dei
singoli membri).
Possibili applicazioni
• “Gran parte della ricerca si concentra su
dimensione piccole (a grandezza di insetto) o
microscopiche (‘nanorobotica’). I gruppi di
questi dispositivi possono lavorare insieme, ad
esempio per individuare le persone
intrappolate in un edificio crollato.
• Di norma, si coordinano, formando network
ad hoc e comunicano da pari a pari con le
unità vicine”.
Opportunità e rischi!
• Prospettive positive in campo medico;
• Preoccupazioni per gli aspetti legati alla
sicurezza e al controllo dei cittadini (es. dello
sciame di formiche in cucina…).
• Particolarmente inquietanti le prospettive in
campo militare: armi che identificano gli
obiettivi e sparano da sole, droni che
trasportano esplosivi, mine che esplodono
solo quando avvistano veicoli nemici.
In conclusione:
I robot possono assumere la forma:
• di semplici apparecchi che eseguono azioni di
routine,
• o di sistemi complessi che percepiscono
l’ambiente, ragionano, intraprendono azioni e
regolano i propri piani rispondendo a nuove
osservazioni.
Altri campi d’applicazione

• La visione artificiale
• Anche in questo ambito si usa il machine
learning, per costruire modelli di oggetti da
grandi collezioni di esempi.
• Progressi notevoli! Le percentuali di errori non
superano il 5% e sono diminuite moltissimo in
pochi anni.
• Ulteriori prospettive: «includere
l’identificazione di immagini nel video e
descrivere scene di carattere maggiormente
narrativo».
• Ma soprattutto: far vedere cose che noi non
vediamo.
• Ambito dell’informazione!
• Riconoscimento vocale
• Problema particolarmente complesso.
• Differenze coi sistemi di riconoscimento delle
immagini.
• Applicazione del machine learning.
Due approcci contrapposti
IA forte v. IA debole
• Le macchine hanno una mente o
finiranno per averla.
• No, esse simulano, non duplicano
l’intelligenza umana.
Insomma: sono davvero intelligenti, o
sono solo capaci di agire «come se» lo
fossero?
Un computer può pensare?
Al termine di un complesso
ragionamento, basato sul «gioco
dell’imitazione» per individuare
chi di due interlocutori
misteriosi fosse l’uomo e chi la
donna («test di Turing»),
concludeva: «Ritengo che la
domanda originale, ‘le macchine
possono pensare?’, sia troppo
priva di senso per meritare di
essere discussa. Sono
nondimeno convinto che alla fine
del secolo l’uso delle parole e la
generale opinione pubblica colta
Benedict Cumberbatch nel film The Imitation Game,
di Morten Tyldum. saranno cambiate così tanto che
si potrà parlare di macchine che
pensano senza timore di essere
contraddetti».
Una disputa accesa
• I computer non possono pensare perché non
intendono effettivamente dire o fare alcunché. Siamo
noi che associamo le loro computazioni al mondo reale
(così, il filosofo John Searle).
• Searle non «postula una qualche magica proprietà
della mente umana capace di trascendere la scienza»;
dice semplicemente che nel nostro cervello capita
qualcosa che non comprendiamo ancora e che,
quando ci riusciremo (cosa che ritiene probabile), ci
consentirà di capire cosa sia il pensare, la coscienza, la
sensazione di provare delle cose, la consapevolezza di
esistere e così via.
Perciò conclude:
• «I computer sono delle zucche vuote».
Ha ragione Searle?
• Per Kaplan, « i programmi per computer, presi
per sé, non concordano affatto con quello che
comunemente intendiamo per ‘pensare’. I
programmi si limitano ’semplicemente’ a
svolgere sequenze di azioni logiche e
deterministiche, per quanto complesse,
cambiando la loro configurazione interna da
uno stato all’altro».
Un paragone con noi stessi
• «Se pensate che il nostro cervello non sia altro che
un manipolatore di simboli fatto di materiale
biologico, allora non potete che giungere alla
conclusione che neanche il vostro cervello, di per
sé, sappia pensare.
• Se la manipolazione simbolica è la base
dell’intelligenza, allora o sia le persone che le
macchine sono in grado di pensare (per principio,
non in pratica, ad oggi), o né le une né le altre lo
sono».
Un’ulteriore conferma
Daniel Dennett:
Una super-intelligenza che superi quella umana e
acquisti la capacità di agire autonomamente è
logicamente possibile. Ma essa rappresenta una
pericolosa fantasia. Noi attribuiamo una capacità di
comprendere molto superiore a quella che i robot
possiedono. E attribuire agli assistenti digitali nomi e
caratteristiche umane aumenta la confusione. “Quello
che vedremo nella nostra esistenza saranno strumenti
intelligenti, non colleghi. Non pensiamo ai robot come
colleghi, non cerchiamo di renderceli colleghi e,
soprattutto, non inganniamo noi stessi considerandoli
colleghi”.

(Fonte: John Thornhill, “Don’t kid yourself that robots are colleagues”, Financial Times, 4-5 marzo 2017)
I computer hanno il libero arbitrio?
Secondo alcuni, no, perché:
• lavorando secondo princìpi ingegneristici
precisi, sono sempre prevedibili;
• non considerano le possibili scelte nello
stesso modo in cui lo fanno gli esseri umani.
Ma: «Non aver mai torto non è equivalente a
saper prevedere il comportamento in modo
affidabile».
Come decidono i computer
«A differenza delle persone, abbiamo un’idea
abbastanza precisa di come funzionano.
Nondimeno sono in grado di fare scelte senza
fare affidamento alla casualità.
Sono capaci di soppesare l’evidenza, applicare
conoscenze e competenze, fare scelte in
situazioni di incertezza, assumersi rischi,
modificare i loro stessi piani sulla base di
informazioni aggiuntive, ….
…osservare i risultati delle proprie azioni,
ragionare (nel caso dell’elaborazione simbolica),
o utilizzare quello che potremmo chiamare
intuito (ad esempio, quando il machine learning
viene utilizzato come base per un’azione da
intraprendere in mancanza di una più
approfondita comprensione dei nessi causali).
Infine, sono capaci di utilizzare metafore e
analogie per risolvere i problemi».
Non tutto è chiaro
In realtà, il tema della decisione e del libro
arbitrio non ha tanto a che fare con la possibilità
che il robot smetta di seguire le istruzioni e
decida di testa propria, ma con la questione che
“il robot, pur facendo quello per cui è
programmato, lo esegua, o tenti di eseguirlo, ma
in un modo che (a noi) è incomprensibile”.

Fonte: The Economist, 17 febbraio 2018


Le meraviglie del GPT-3
• GPT-3=Generative Pre-trained Transformer di
terza generazione.
• È un modello che ha raggiunto la capacità di
un certo livello di astrazione, un’abilità
fondamentale per la comprensione del
mondo. A parte le applicazioni per i robot,
questo tipo di visualizzazione potrebbe aiutare
i ricercatori a comprendere meglio ciò che i
modelli di IA stanno imparando.
• «È un passo significativo verso il punto di arrivo
dell’IA: l’artificial general intelligence, che consentirà
all’intelligenza elettronica di sfidare il genere umano
in pressoché tutti gli ambiti intellettuali».
• Lo sviluppo dell’Agi sostanzialmente potrebbe
ricalibrare le relazioni fra umani e macchine, con la
possibilità di dare vita a forme più alte di intelligenza
artificiale. A quel punto, come ha sottolineato lo
storico Yuval Noah Harari, l’homo sapiens cesserebbe
di essere il più intelligente algoritmo sul pianeta».

(Fonte: John Thornhill, The imitation game, Financial Times, 14 novembre


2020)
Ma ci arriveremo?
• Alessandro Longo e Guido Scorza (in Intelligenza
artificiale - L’impatto sulle nostre vite, diritti e libertà,
Mondadori Università, 2020) danno conto di alcune
previsioni su quando si raggiungerà l’Agi: tra il 2030 e il
2060 secondo gli ottimisti, ma per la maggior parte
degli studiosi ci vorranno decenni.
• «Secondo il cofondatore di Apple, Steve Wozniak, ci
accorgeremo di avere una Agi quando una macchina,
entrando in una stanza mai vista prima, sarà in grado di
scoprire da sola come preparare una tazza di caffè».
Non mancano le cautele…
• « Se gestita male, IA potrebbe solo moltiplicare molti
problemi attuali: l’eccessiva concentrazione di potere
nelle società private potrebbe fare assumere a queste le
funzioni che una volta esercitavamo le nazioni-stato;
l’ulteriore diffusione delle diseguaglianze e il
restringimento delle opportunità; la diffusione di
disinformazione e l’erosione della democrazia.
• Alcuni studiosi parlano addirittura di minacce esistenziali
per l’umanità. Lo stesso Elon Musk ha twittato:
‘Dobbiamo essere ultra-attenti con l’IA…potenzialmente
più pericolosa delle armi nucleari’».
…e la prudenza
«Il GPT-3 ha bisogno di un baby-sitter umano ogni volta che gli si dice cosa debba
fare.
Il GPT-3 non è propriamente intelligente…non impara come imparano gli umani.
Non c’è modo che il GPT-3 diventi consapevole dell’inappropriatezza di particolari
affermazioni e cessi di usarle.
Non so come potremo colmare questo gap. Ma il sacro Graal dell’Ia non è GTP-3,
è una macchina che possa iniziare a sviluppare un robusto modello del mondo
che possa essere costruito nel tempo e ridefinito e corretto attraverso
l’interazione con gli esseri umani. Questo è ciò di cui abbiamo bisogno» (Shannon
Vallor, docente di etica dei dati e IA all’Univ. di Edimburgo, cit.).
Il GPT-3 è un gioco di prestigio, è davvero una grande gioco di prestigio. E a me
piacciono i giochi di prestigio. Tu pensi che stia succedendo qualcosa davanti a te,
ma non si tratta di ciò che pensi. È dare qualcosa che sembra giusto, dal quale
dovrebbe seguire statisticamente una conversazione. Ma ciò non significa che sia
vero (Kristian Hammond, chief scientific adviser della società tecnologica
Narrative Science, cit.)».

(Fonte: Thornhill, cit).


In cerca di responsabilità
• Per Jacob Turner, esperto di diritto
internazionale, “sarà necessario attribuire
personalità giuridica all’IA se coloro che si
sentiranno danneggiati da questi agenti
avanzati richiederanno un indennizzo” (The
Economist, cit.).
• Ma se i comportamenti sono inspiegabili,
come procedere a un giudizio, come valutare?
Una soluzione all’antica
“Se il robot è capace di agire come un agente umano,
possiamo adottare le antiche regole del diritto romano, nel
quale il padrone dello schiavo era responsabile per ogni
danno da questi compiuto. Come sapeva il diritto romano,
attribuire qualche genere di personalità giuridica ai robot
(come agli schiavi) solleverebbe chi dovrebbe controllare
dalle proprie responsabilità. Poi, come attribuire i diritti? I
robot hanno diritto ai propri dati? Dovrebbero essere
‘liberati’?...Il dibattito non è sui robot ma su di noi, e sul tipo
di infosfera che vogliamo creare. Abbiamo bisogno di meno
fantascienza e di più filosofia”.

(Luciano Floridi, “Roman law offers a better guide to robot rights than science-fi”,
Financial Times, 22 febbraio 2017).
L’evoluzione dell’homo sapiens

?
• I latini distinguevano “tra sapientia (l’abilità, la capacità di
pensare con intelligenza) e sententia (l’opinione, il
giudizio, ossia la capacità di valutare esperienze
soggettive)”.
• Le macchine potranno sfidare l’homo sapiens; “ma
acquisire la coscienza elettronica, che presuppone cogliere
il significato, sarà un passo più importante. Se gli umani
vogliono difendere il proprio eccezionalismo, secondo Max
Tegmark (autore di “Being Human in the Age of Artificial
Intelligence”), forse è il momento di ribattezzarci come
Homo sentiens”.
(Fonte: John Thornhill, “Competent computers still cannot comprehend”, in Financial
Times, 9 gennaio 2018).
Cambierà anche il diritto
• Oggi gli avvocati non sono incentivati ad
adottare tecnologie che facciano loro
risparmiare tempo e alle quali possano
accedere i potenziali clienti.
Una mano agli avvocati
Come funziona il ‘predictive coding’: procuratori
umani passano in rassegna un gruppo di
documenti campione, scelti statisticamente per
rappresentare l’intera collezione; poi inizia a
lavorare un programma di machine learning, per
identificare i criteri che gli permetteranno di
avvicinarsi quanto più possibile alla performance
umana; e così via finché il programma non è in
grado di selezionare i programmi da solo.
L’IA può commettere reati?
Perché no?
A un programma si può riconoscere la capacità
di agire moralmente se è in grado di
comprendere le conseguenze del suo
comportamento; e se può scegliere come
comportarsi.
E oggi si può scrivere un programma che sappia
cosa sta facendo, sappia che è illegale, e possa
scegliere cosa fare.
Come insegnare l’etica ai robot
• GoodAI: «L’idea è quella di addestrare l’IA a applicare la
propria conoscenza a situazioni che non hanno mai
precedentemente incontrato» (Marek Rosa, fondatore);
• Ron Arkin: «L’"adattatore etico" cerca di simulare le
emozioni dell’uomo, piuttosto che emularne il
comportamento, in modo da aiutare il robot a imparare
dai propri errori. Questo sistema consente al robot di
sperimentare qualcosa di simile al concetto di colpa».
• Mark Riedl: «Usare le storie per ridurre il tempo di
apprendimento».

(Fonte: Simon Parkin, Teaching robots right from wrong, 1843, giugno-luglio
2017)
I princìpi di Asilomar
• “Questi princìpi parlano di ricerca, che deve essere rivolta a
studiare un’IA sicura e a impatto positivo, in un ambiente di
collaborazione tra ricercatori, programmatori e politici. Inoltre,
vengono citati valori importanti come privacy, trasparenza,
responsabilità, allineamento ai valori umani , libertà, prosperità e
controllo umano, che debbono essere sempre presi in
considerazione nel costruire l’IA. Infine, non mancano princìpi
per preoccupazioni più a lungo termine, come la singolarità, e
altri che spingono verso metodi per assicurare che l’Ia sia di
supporto al benessere di tutti e non solo di un singolo stato o
organizzazione”.
Francesca Rossi, Il confine del futuro - Possiamo fidarci
dell’intelligenza artificiale?, Feltrinelli, 2019
Research Issues
• Research Goal: The goal of AI research should be to create not undirected
intelligence, but beneficial intelligence.
• Research Funding: Investments in AI should be accompanied by funding for
research on ensuring its beneficial use, including thorny questions in
computer science, economics, law, ethics, and social studies, such as:
How can we make future AI systems highly robust, so that they do what we
want without malfunctioning or getting hacked?
How can we grow our prosperity through automation while maintaining
people’s resources and purpose?
How can we update our legal systems to be more fair and efficient, to keep pace
with AI, and to manage the risks associated with AI?
What set of values should AI be aligned with, and what legal and ethical status
should it have?
• Science-Policy Link: There should be constructive and healthy exchange
between AI researchers and policy-makers.
• Research Culture: A culture of cooperation, trust, and transparency should be
fostered among researchers and developers of AI.
Ethics and Values
• Safety: AI systems should be safe and secure throughout their operational lifetime, and verifiably so
where applicable and feasible.
• Failure Transparency: If an AI system causes harm, it should be possible to ascertain why.
• Judicial Transparency: Any involvement by an autonomous system in judicial decision-making should
provide a satisfactory explanation auditable by a competent human authority.
• Responsibility: Designers and builders of advanced AI systems are stakeholders in the moral
implications of their use, misuse, and actions, with a responsibility and opportunity to shape those
implications.
• Value Alignment: Highly autonomous AI systems should be designed so that their goals and behaviors
can be assured to align with human values throughout their operation.
• Human Values: AI systems should be designed and operated so as to be compatible with ideals of human
dignity, rights, freedoms, and cultural diversity.
• Personal Privacy: People should have the right to access, manage and control the data they generate,
given AI systems’ power to analyze and utilize that data.
• Liberty and Privacy: The application of AI to personal data must not unreasonably curtail people’s real
or perceived liberty.
• Shared Benefit: AI technologies should benefit and empower as many people as possible.
• Shared Prosperity: The economic prosperity created by AI should be shared broadly, to benefit all of
humanity.
• Human Control: Humans should choose how and whether to delegate decisions to AI systems, to
accomplish human-chosen objectives.
• Non-subversion: The power conferred by control of highly advanced AI systems should respect and
improve, rather than subvert, the social and civic processes on which the health of society depends.
• AI Arms Race: An arms race in lethal autonomous weapons should be avoided.
Longer-term Issues
• Capability Caution: There being no consensus, we should avoid
strong assumptions regarding upper limits on future AI
capabilities.
• Importance: Advanced AI could represent a profound change in the
history of life on Earth, and should be planned for and managed
with commensurate care and resources.
• Risks: Risks posed by AI systems, especially catastrophic or
existential risks, must be subject to planning and mitigation efforts
commensurate with their expected impact.
• Recursive Self-Improvement: AI systems designed to recursively
self-improve or self-replicate in a manner that could lead to rapidly
increasing quality or quantity must be subject to strict safety and
control measures.
• Common Good: Superintelligence should only be developed in the
service of widely shared ethical ideals, and for the benefit of all
humanity rather than one state or organization.
I diritti e le libertà da tutelare
• Rispetto della dignità umana;
• libertà individuale;
• rispetto della democrazia, della giustizia e dello
stato di diritto;
• uguaglianza, non discriminazione e solidarietà
(compresi i diritti delle persone a rischio di
esclusione);
• diritti dei cittadini.
(Fonte: Orientamenti etici per un’IA affidabile, a cura del Gruppo
indipendente di esperti ad alto livello sull’intelligenza artificiale,
istituito dalla Commissione europea nel giugno 2018; aprile 2019)
Quattro princìpi etici
• Rispetto dell’autonomia umana;
(I sistemi di IA non devono subordinare, costringere,
ingannare, manipolare, condizionare o aggregare in
modo ingiustificato gli esseri umani. Al contrario,
devono essere progettati per aumentare, integrare e
potenziare le abilità cognitive, sociali e culturali
umane);
• Prevenzione dei danni;
• Equità;
• Esplicabilità.
Siamo tutti coinvolti
Le diverse categorie di portatori di interessi rivestono
diversi ruoli nel garantire che i requisiti siano soddisfatti:
• a. gli sviluppatori attuano e applicano i requisiti ai
processi di progettazione e sviluppo;
• b. i distributori garantiscono che i sistemi che utilizzano
e i prodotti e i servizi che offrono soddisfino i requisiti;
• c. gli utenti finali e la società in generale sono informati
su questi requisiti e hanno la facoltà di domandarne il
rispetto.
Quali sono i requisiti principali
1 Intervento e sorveglianza umani
Inclusi i diritti fondamentali, l'intervento umano e la sorveglianza umana;
2 Robustezza tecnica e sicurezza
Inclusi la resilienza agli attacchi e la sicurezza, il piano di emergenza e la sicurezza generale,
la precisione, l'affidabilità e la riproducibilità;
3 Riservatezza e governance dei dati
Inclusi il rispetto della riservatezza, la qualità e l'integrità dei dati e l'accesso ai dati;
4 Trasparenza
Incluse la tracciabilità, la spiegabilità e la comunicazione;
5 Diversità, non discriminazione ed equità
Incluse la prevenzione di distorsioni inique, l'accessibilità e la progettazione universale, e la
partecipazione dei portatori di interessi;
6 Benessere sociale e ambientale
Inclusi la sostenibilità e il rispetto ambientale, l'impatto sociale, la società e la democrazia;
7 Accountability
Inclusi la verificabilità, la riduzione al minimo degli effetti negativi e la loro segnalazione, i
compromessi e i ricorsi.
Fonte:
Borsa
Italiana
In cosa consiste
La 4° rivoluzione industriale è caratterizzata
«dall’ingresso delle cosiddette "tecnologie convergenti",
quelle che risultano dalla combinazione sinergica delle
• nanotecnologie,
• biotecnologie,
• tecnologie dell’informazione,
• scienze cognitive:
in acronimo NBIC»

(Stefano Zamagni, «Il futuro del lavoro umano


nell’economia digitalizzata», in "Notiziario della Banca
popolare di Sondrio", n. 136, aprile 2018 ).
La differenza tra 3° e 4° Rivol. Industr.
• Nella terza, le tecnologie digitali hanno
sostituito molto lavoro di routine.
• Nella quarta, le tecnologie si dimostrano
capaci di fare lavori che non sono stati «pre-
programmati», o sono di routine. Le macchine
non si limitano a seguire procedure codificate
fornite da programmatori umani, ma
imparano a risolvere problemi da soli.
(Fonte: McAfee-Brynjolfsson, 2017)
La tecnologia non è tutto!
«La tecnologia è un catalizzatore, ma la
tecnologia da sola non produce un boom di
produttività. Gli imprenditori devono inventare
nuovi modelli di business, i lavoratori devono
sviluppare nuove professionalità, i politici
devono aggiornare norme e regole. In questo
modo, potranno contribuire a creare ricchezza
condivisa».
(Fonte: Erik Brynjolfsson, «Machine learning will be the engine of
global growth», In Financial Times, 27 luglio 2018).
Un potenziale esplosivo
• «L’IA potrebbe apportare una crescita
dell’attività economica globale di circa 13 tln. $
entro il 2030, ovvero di circa il 16% al pil attuale.
• Questo corrisponde a un 1,2% di pil in più ogni
anno: un impatto che sarebbe paragonabile a
quello assicurato nella storia dalle ‘general-
purpose technologies’».

(Fonte: Jacques Bughin, Jeongmin Seong, James Manyika,


Michael Chui, Raoul Joshi: “Notes from the frontier: Modeling
the impact of AI on the world economy”, Discussion Paper,
McKinsey Global Institute, settembre 2018).
Un’altra valutazione

Fonte: the Global Connectivity Index 2018, elaborato da Huawei


Le posizioni in classifica
I settori interessati
L’internet delle cose
• Che cos’è: “Un sistema di apparecchiature semplici e
complesse dotate di indirizzo IP (codice identificativo
unico) che si scambiano dati senza l’intervento
umano”.
• Nel 2015, il mercato era valutato in 157 mld $;
nel 2021, secondo l’agenzia Research and Markets, il
valore salirà a 661 mld, con un tasso annuo di crescita
composto del 33,3%.

(Fonte: Carlo De Benedetti, Perché l’internet delle cose è la frontiera della crescita, Il Sole-24
Ore, 27 aprile 2016).
La crescita del mercato
• Nel 2017 2,4mld di apparati erano connessi in
ambito business;
• nel 2018, 3,1;
• nel 2020, 7,6.
(dati Gartner, cit. in Ed Crooks, Industriale Futures, Financial Times, 28 giugno 2017)-

In Italia: nel 2018 il mercato a 5 mld. € (+35% su


2017; nel resto del mondo occidentale: tra +25 e
+ 40%).
(dati Osservatorio Internet of Things della School of Management del Politecnico di Milano, cit. in
Maria Luisa Romiti, «Internet of things, è boom in Italia», Repubblica, 6 maggio 2019).
Fonte: Osservatori.net digital innovation, Politecnico di Milano, aprile 2019
La sfida per le aziende
• Il sistema misto cyber-fisico che
caratterizza Industria 4-0 impone una
«radicale innovazione organizzativa che
abbandoni l’obsoleto modello ford-
taylorista basato sulle gerarchia e su una
spinta alla specializzazione delle
mansioni».
(Zamagni, cit.).
Serviranno figure professionali nuove quali:
• il Digital Innovation Officer,
responsabile dell’innovazione digitale;
• il Techonology Innovation Manager,
facilitatore dell’innovazione;
• il Data Protection Officer,
responsabile della protezione dati,
e altri ancora.
Una risorsa indispensabile
• Non basterà più la Digital Literacy (la semplice
conoscenza di programmi e applicazioni), ma
servirà «la Digital Fluency, ossia l’insieme delle
nuove competenze rese possibili dall’introduzione
delle nuove tecnologie, e che rendono possibile
integrare la commercializzazione entro la
progettazione, utilizzando i feedback delle
vendite, con abbattimento dei costi e aumenti dei
livelli di competitività».
(Zamagni, cit.)
Un vecchio dilemma
Già John Maynard Keynes osservava, nel 1930:
«Soffriamo per un attacco di pessimismo economico…
Abbiamo conosciuto un progresso tecnologico più rapido
negli ultimi dieci anni che in tutta la storia precedente…
siamo colpiti da un nuovo malessere: la disoccupazione
tecnologica. Una forma di disoccupazione causata dal fatto
che scopriamo nuovi modi per risparmiare lavoro a una
velocità superiore di quella alla quale scopriamo nuovi
modi per impiegare il lavoro. Ma è soltanto un
disallineamento temporaneo».
(corsivo mio, da «Possibilità economica per i nostri nipoti», cit. in Zamagni).
Oggi, l’IA toglierà lavoro?
• Per rispondere, «è necessario capire quali
competenze sono separabili dal resto del
lavoro che quel lavoratore svolge e quanto
esse siano facilmente utilizzabili, con o senza
l’apporto della IA. Meno competenze uniche
sono utilizzate da un lavoratore, più questo
rischia di poter essere sostituito da una
macchina».
(Fonte: McAfee-Brynjolfsson, 2017)
Fonte:
«A Future That Works: Automation,
Employment and Productivity»,
Rapporto McKinsey Global Institute,
1.2017
• Quindi: «Sì, i robot si prenderanno i nostri
lavori, ma un modo più produttivo di pensare
a ciò è osservare che essi renderanno obsolete
le nostre competenze, un processo che gli
economisti chiamano, in modo piuttosto
appropriato, dequalificazione».
Una ricerca che ha fatto discutere

• C. B. Frey – M. Osborne: «The Future of


Employment: How Susceptibile Are Jobs to
Computerisation?», Oxford Martin Sch., Un.
of Oxford, 2013.
Le conclusioni…
Sono state analizzate ciascuna delle 702 categorie
di lavoro censite dal U.S. Bureau of Labor
Statistics, basate su un inventario delle
competenze necessarie per svolgere tali lavori.
Individuate tre principali «strettoie» nel cammino
verso l’automazione:
• Mansioni di percezione e manipolazione;
• di intelligenza creativa;
• di intelligenza sociale.
…e le prospettive
• Il 47% dei lavori di oggi è ad alto rischio di
automazione nei prossimi anni e decenni;
• il 19% a medio rischio.
• Es. di colletti blu a rischio:
scavatori di condotti fognari, riparatori di orologi,
operatori di macchina, cassieri, addetti alla posta,
autisti, ispettori, testatori, proiezionisti, commessi,
lucidatori, lavoratori agricoli, portieri d’albergo,
controllori, cuochi, croupier, macchinisti, guardiani,
addetti ai centri stampa…
• Es. di lavori meno a rischio:
Terapisti, audiologi, ortopedici e protesisti,
coreografi, medici e chirurghi, dentisti e
ortodontisti, modellisti tessili o di abbigliamento,
preparatori atletici, guardie forestali, infermieri,
truccatori, farmacisti, allenatori e guide,
fisioterapisti, fotografi, chiropratici, veterinari,
artisti e artigiani, esperti d’arte…
• ..e quelli meno:
Analisti informatici, ingegneri,
artisti multimediali e creatori di
animazioni, informatici e ricercatori
nel campo della scienza e delle
• I colletti bianchi a rischio:
informazioni, dirigenti,
Preparatori fiscali, esaminatori compositori, stilisti, amministratori
di titoli, assicuratori, addetti ai di database, addetti agli uffici
reclami, all’inserimento dati, ai acquisti, avvocati, scrittori e autori
prestiti, all’analisi di credito, sviluppatori di software,
contabili, centralinisti, matematici, editor, grafici,
controllori di volo, ingegneri del
bibliotecari, operatori di
suono, impaginatori.
centrali nucleari, scrittori
tecnici, correttori di bozze….
Chi si salverà più facilmente…
• I cosiddetti «colletti rosa», cioè le persone che lavorano
in tutti quei settori nei quali il contatto faccia a faccia è
una componente essenziale del lavoro o in cui è
importante l’osservazione o l’espressione di emozioni
umane.
• Es: camerieri (soprattutto quelli che servono a tavola),
psicologi clinici, poliziotti, assistenti amministrativi,
insegnanti, agenti immobiliari, religiosi, supervisori,
infermieri, professionisti e consulenti nel settore delle
vendite e, in generale, mestieri che richiedono una
connessione intuitiva con altre persone.
…ovvero, le nuove competenze richieste

• Stefano Zamagni conclude citando il rapporto


«The Future of Skills – Employment in 2030"
(Nesta, 2017) secondo il quale non «bastano più
le skills specialistiche, che peraltro restano
necessarie, ad assicurare l’occupabilità. Quel che
in più la nuova traiettoria tecnologica richiede
sono abilità di tipo relazionale, quali empatia,
propensione al lavoro di squadra, autonomia».
(Zamagni, cit.).
Fonte: McKinsey, cit.
Fonte: McKinsey, cit;
Fonte: Elaborazione su dati McKinsey 2017 cit., in Richard Baldwin, Rivoluzione globotica –
Globalizzazione, robotica e futuro del lavoro, Il Mulino, 2020.
Fonte: McKinsey, cit;
Nessuno è al sicuro
105

Fonte: McKinsey, cit;


Cosa ci dice la storia (recente)
Fonte: Jacques Bughin, Jeongmin Seong, James Manyika, Michael Chui, Raoul Joshi, Notes
form the Ai Frontier – Modeling the Impact of AI on the World Economy, Discussion Paper
McKinsey Global Institute, settembre 2018
Il paradosso della produttività

Fonte: Adair Turner,


«Capitalism in the age
of robots: work, income
and wealth
in the 21° century»,
maggio 2018
Una conseguenza preoccupante
• «Nel ricco mondo sviluppato, la
questione sarà quasi certamente non il
lavoro, ma i salari….Stiamo andando
verso un mondo di diseguaglianze
stabilmente crescenti, alle quali la
soluzione che normalmente si indica –
assicurare a ciascuno migliori
professionalità – si rivelerà una risposta
inadeguata» (Turner, cit.).
L’ineguaglianza negli Usa
I giganti non assumono…
…e i salari stagnano
Non tutto è economia
«Cowen’s imagined future is in part a deliberate
provocation, but also a reflection of a conservative
political creed which accepts the world as it is and
denies both our ability to change it and the ethical case
for seeking to do so. So in response one must be clear
whether one accepts that normative position: I do not.
To me Cowen’s future is a dystopia, and we cannot
accept the degree of inequality, not only of outcome
but of opportunity, which it entails. We should try to
produce a better and more equal result even if we can
only be partly successful» (Turner, cit.).
Che fare?
«Driving still faster productivity growth will not
solve the most pressing problems. The most
important choices facing advanced rich societies
in the future will be how we spend the fruits of
increasing productivity and how to distribute it,
not how to further increase the pace of
advance» (Turner, cit.).
Il nuovo lavoro cresce poco
«Three decades or more since we first began to talk of living
in a computer age, the total number of workers employed in
the development and production of computer hardware,
software and applications, is still only 4% of the total
workforce, and the US Bureau of Labor Statistics predicts just
135,000 new jobs in software development over 2014 to
2024, versus 458,000 additional personal care aides, and
348,000 home health aides.
Total employment in the giant mobile phone, software and
Internet companies which dominate global equity values is a
minute drop in the 30 global labour market. Facebook, with a
market capitalisation of $500 billion, employs just 25,000
people» (Turner, cit.).
La demografia sarà un dramma?
Quattro risposte possibili

Fonte: Turner, cit.


Cosa prevede l’Ocse

Fonte: “The Future of Work, Oecd Employment Outlook 2019”, Parigi, 2019.
Colpiti i più poveri
• Lo studio Frey-Osborne e quello dell’Ocse «concordano sul
fatto che i lavori non qualificati sono i più soggetti al rischio
di automazione. Quando Il Council of Economic Advisers di
Barak Obama ha utilizzato i nostri calcoli per individuare le
occupazioni più a rischio in base al livello salariale, ha
notato che l’83% dei lavoratori che sono pagati meno di 20$
l’ora è ad alto rischio di sostituzione mentre per i lavoratori
pagati più di 40$ l’ora la percentuale si riduce al 4%. Ciò
dimostra che le prospettive occupazionali per chi non ha
una specializzazione continueranno a peggiorare, a meno
che altre forze non si contrappongano a questa tendenza».

Fonte: Carl Benedikt Frey, La trappola della tecnologia – Capitale, lavoro e


potere nell’era dell’automazione, Franco Angeli, 2020
«L’opinione diffusa che saranno automatizzati i lavori qualificati è errata. Nel suo best-
seller Rise of the Robots, Martin Ford ha scritto che “il lavoro per molti professionisti
qualificati – compresi avvocati, giornalisti, scienziati e farmacisti – sta già diminuendo a
causa dei progressi dell’informatica [per cui] un livello superiore di istruzione e
maggiori competenze non rappresentano necessariamente una tutela contro
l’automazione nel futuro˝. Sebbene alcuni compiti relativi alle occupazioni evidenziate
da Ford potranno essere automatizzati, ve ne sono molti che non corrono questo
rischio.
Per esempio, quando recentemente Dana Remus e Frank Levy hanno analizzato i dati
sulle fatturazioni degli avvocati, hanno riscontrato che se essi adottassero
immediatamente l’IA e le relative applicazioni – il che è alquanto improbabile – queste
sostituirebbero approssimativamente il 13 percento del loro tempo. Gli avvocati
dedicano il resto delle ore di lavoro alla stesura di atti giudiziari, all’investigazione, alla
negoziazione, alle comparizioni nei tribunali e alla consulenza fornita ai clienti. Come
spiegano Remus e Levy, il lavoro di un avvocato non si limita a fare previsioni:
“Richiede la capacità di comprendere la situazione del cliente, i suoi obiettivi e i suoi
interessi; di pensare in maniera creativa il modo migliore per perseguire quegli
interessi nei termini di legge; e talvolta, di respingere la linea di condotta proposta dal
cliente e controproporre l’ottemperanza delle leggi. Queste sono situazioni che hanno
bisogno di interazione umana e intelligenza emotiva e che, almeno per il momento,
non possono essere automatizzate”».

Fonte: Frey, cit.


Una legge sempre valida
Perché la produttività langue
«Come è risaputo, a partire dal 2005, la crescita della
produttività ha rallentato il passo, ma ciò può accadere
quando le tecnologie sono nella fase iniziale del loro
sviluppo. La tecnologia migliora la produttività solo dopo
lunghi periodi mentre nelle fasi iniziali del suo sviluppo
rappresenta soprattutto un costo. Dopo una nuova scoperta,
occorrono spesso anni prima che si riesca a passare dai
prototipi alla produzione. Pertanto, il contributo delle nuove
tecnologie alle variabili economiche aggregate lo si è visto
sempre successivamente:…l’incremento di produttività
attuale non è un buon indicatore dell’aumento di produttività
futuro».
Fonte: Frey, cit.
Gli umani serviranno
«Gli esperti stimano che ci vorrà una
cinquantina d’anni perché l’IA possa
raggiungere elevate prestazioni e abilità
sociali, simili a quelle degli esseri umani,
indispensabili nei posti di lavoro, quali il
ragionamento basato su una sensibilità
sociale e emotiva, il coordinamento con una
molteplicità di soggetti, un appropriato
comportamento affettivo o adeguate risorse
empatiche.
La conseguenza è tanto semplice quanto
profonda: la componente umana sarà
Il Mulino, 2020 importante per la maggior parte dei posti di
lavoro del futuro».
Davvero senza lavoro?
Per Susskind, siamo alla vigilia di un’epoca nella quale
le macchine potrebbero produrre nuove idee per
programmare se stesse.
Gli economisti hanno pensato che per svolgere un
compito, un computer doveva seguire esplicite regole
articolate da un essere umano – che le capacità di
una macchina dovevano essere avviate
dall’intelligenza umana. Al contrario, «molte
macchine stanno derivando regole interamente
nuove, non collegate a quanto seguono gli umani. E
questa non è un cavillo semantico, ma un
cambiamento sostanziale. Le macchine non stanno
più camminando sulle orme dell’intelligenza umana».
I suggerimenti di Susskind:
• arginare le Big Tech:
Allen Lane, 2020 • rafforzare il Big State.
Serve una visione critica
«Le straordinarie scoperte scientifiche e le
continue accelerazioni indotte
dall'innovazione tecnologica rendono
necessaria un'educazione al pensiero
critico che porti a superare la tradizionale
divisione tra formazione scientifica e
umanistica. La società ipercomplessa in
cui viviamo ci pone davanti a una sfida
strategica: quella di costruire un nuovo
processo, sociale e culturale, di
formazione della persona e del cittadino,
educandoci a quella stessa complessità
Rizzoli, 2019 che oggi ci destabilizza e ci spaventa.
Più coltiviamo l’umano e più l’intreccio
con le macchine pensanti ci rafforzerà».
Sostituire o collaborare?

• Alcuni antropologi americani hanno scoperto che,


spesso, più che sostituire, la macchina si affianca agli
umani: “La software automation può sostituire il
lavoro ma crea anche nuove forme di
complementarietà uomo-macchina, creando nuovi
tipi di lavoro” (Benjamin Shestakofsky, antropologo).
• “Stanno emergendo assemblaggi di umani e
computer” (Shreeharsh Kelkar, antropologo).
(citati in Gillian Tett, How robots make humans indispensable, Financial Times,
23 dicembre 2016)
Tre collaborazioni possibili
• «Avere l’uomo che sostituisce la macchina quando
questa raggiunge i limiti delle proprie abilità.
• Garantire che un incarico ‘sensibile’ sia sempre
sottoposto al controllo di una persona, anche
quando essa è stata programmata per concludere
l’incarico.
• Aiutare l’IA quando questa non è capace di gestire
del tutto un incarico».

(Fonte: Richard Waters, Keeping humans in the loop, Financial


Times, 10 ottobre 2018)
Ma tutto è relativo
• In Asia i robot sono tanto più popolari quanto
più sono utilizzati (per es. in Giappone, Corea
del Sud e Cina).
• Secondo un rapporto dell’Asian Development
Bank (Asian Development Outlook, aprile
2018), i robot stanno creando, più che
distruggendo, posti di lavoro.
• In 12 Paesi asiatici, fra il 2005 e il 2015, la
crescita della domanda ha più che
compensato i posti di lavoro perduti. I robot
hanno garantito crescita di produttività e
sviluppo, con la creazione di 134mila nuovi
posti di lavoro, rispetto ai 101mila persi.
Come mai due atteggiamenti
così diversi?
• Secondo alcuni osservatori, perché i bambini
giapponesi, abituati ai videogiochi, considerano i
robot come degli eroi.
• Secondo altri (per es. Masatoshi Ishikawa, docente
di robotica all’università di Tokio), contano le
tradizioni religiose: gli occidentali monoteisti
diffidano di corpi non organici dotati di
intelligenza, mentre le religioni spiritualiste
trovano più semplice credere che i robot possano
avere uno spirito autonomo.
Tolleranza scintoista
• «I robotici giapponesi suggeriscono che la cultura scintoista ha
plasmato un’accettazione della compatibilità e coesistenza tra
umano e robot. Lo scintoismo si fonda sulle forze vitali o
essenze (kami) che sono presenti, o incorporate, nelle cose
organiche e inorganiche, dagli uccelli agli alberi alle rocce e alla
auto, che possono essere mobilitate, normalmente per scopi
benefici. In questo senso, i robots sono classificabili come cose
‘vive’: nessuno le confonde con forme di vita organiche, ma il
loro kami è riconosciuto».

(Jennifer Robinson, Robots and religiosity: Japanese perspectives on spirituality


and science, in More than Human, catalogo della mostra, Barbican International
Enterprises, Londra, 2019).
• Per Ishikawa, ci sono due tipi di robot (quelli
che eseguono i lavori umani, e quelli che
migliorano le performance degli umani): ci
occupiamo troppo dei primi e poco dei secondi.
• Ma sono questi che possono aiutare gli umani a
gestire le «3d»: I lavori dirty, dull e dangerous.
• Conta anche la demografia: anche le società
asiatiche invecchiano e molte preferiscono
affidarsi, più che agli immigrati, ai robot che
infatti sono sempre più diffusi presso case e
ospedali.
In cerca di un nuovo modello
• Per questo, si immagina una terza generazione di
robot che associ hardware e software per
«realizzare robot umanoidi emozionalmente
consapevoli» (Kaname Hayashi, fondatore di
GrooveX, che sta studiano la creazione di un robot
LOVOT, una sigla che combina Love e Robot).

(John Thornhill, Asia has learnt to love robots - the west


should, too, in Financial Times, 17 aprile 2018).
Modello Confucio
• «Invocando la necessità di una chiara definizione della gerarchia tra
umani e macchine, Daniel Bell e Pei Wang suggeriscono che il pensiero
confuciano potrebbe essere usato per riformare le basi etiche dell’IA.
(Per esempio, nel caso delle auto autonome) osservano che molti dei
presupposti adottati dalla Silicon Valley sull’Ia ‘leggono’ le preferenze
del proprietario dell’auto e dunque si limitano a estrapolare il
presupposto normalmente diffuso negli Usa che la regola sia quella
stabilita dal singolo proprietario…Una versione ‘confuciana’ per
programmare l’auto potrebbe essere quella di favorire velocità più
basse per consentire al traffico di scorrere costantemente, creando una
gerarchia definita dallo stato, nella quale l’esigenza della sicurezza
limita i desideri individuali di sfrecciare al massimo della velocità».

(Fonte: Rana Mitter, The case against equality, Financial Times, 25 gennaio 2020.
Daniel Bell e Pei Wang sono autori di Just Hierarchy: Why Social Hierarchies Matter in China
and the Rest of the World, Princeton Univ. Pr., 2020; rispettivamente sociologo e
informatico).
Robot che aiutino
• «L’introduzione di sistemi di IA nei luoghi di
lavoro non è una questione di robot che rubano
il lavoro agli umani, ma di macchine, nella
maggior parte dei casi non robot nel senso
hollywoodiano, ma software e sensori in grado
di aiutare le persone a svolgere un compito
meglio, più rapidamente, con maggiore
sicurezza e con costi più competitivi».
(Fonte: Dave Edwards, cit. in Guido Romeo, I lavori aumentati
dall’automazione, Il Sole-24 Ore, 11 marzo 2018).
Una vera collaborazione

«La convivenza intelligente può andare oltre la spartizione del


lavoro a livello macroeconomico e perseguire una vera e
propria collaborazione tra uomo e macchina. L’idea è che,
interagendo con le macchine, l’uomo possa creare più valore
che a lavorare senza tecnologia o a lasciare che le macchine
operino da sole….
Il connubio uomo-macchina può dare risultati migliori rispetto
all’uno o all’altra da soli. Perché ciò avvenga, è importante che
l’uomo acquisisca le competenze necessarie per utilizzare al
meglio la tecnologia. E che la macchina non sia vista in
contrapposizione all’uomo, ma come un’opportunità per
estenderne le abilità».

(Fonte: Marco Magnani, Fatti non foste a viver come robot, Utet, 2020).
Il parere dell’Ocse
• I nuovi dati Ocse «confermano che, nei Paesi Ocse, anche a
seguito della digitalizzazione e della globalizzazione, la domanda
di competenze delle imprese si stia spostando verso la richiesta di
lavoratori in grado di svolgere mansioni complesse e in situazioni
’non strutturate’ e ad alto grado di imprevedibilità. Le abilità di
comunicazione, l’intelligenza sociale, la capacità di persuasione e
le abilità di negoziazione – dimensioni intrinsecamente legate alle
interazioni umane e difficili da automatizzare attraverso l’uso
dell’intelligenza artificiale o della robotica – sono fra le più
richieste nella maggior parte dei Paesi».

(Elena Crivellaro e Fabio Manca, Ocse, rispett. Centro per le competenze;


Head team Analisi delle competenze, Oltre la tecnofobia – Trovare lavoro
non sarà automatico, Il Foglio, 22 maggio 2019).
Non c’è prevenzione
• «Gli attuali impiegati tendono a distinguere
mentalmente tra lavoro ‘core’ (cioè attività
con le quali si identificano) e lavoro ‘periferico’
che non contribuisce al loro successo o al loro
benessere. Gli impiegati utilizzeranno
volentieri IA per sostituire il lavoro periferico.
Ma difenderanno il lavoro ‘core’».

(Gillian Tett, Workers can learn to love artificial


intelligence, Financial Times, 22 novembre 2019).
Una risorsa insostituibile
• «L’uomo è il più economico sistema
computerizzato da 70 chilogrammi non
lineare e multiuso, che possa essere
prodotto in serie da personale non
specializzato».

Fonte: Rapporto Nasa del 1965, cit. in Steven Pinker, Illuminismo


adesso – In difesa della ragione, della scienza, dell’umanesimo e del
progresso», Mondadori, 2018
A lavorare sarà il consumatore
• Fauxtomation: «Consideriamo McDonald’s. Oggi
posso ordinare il mio panino usando touch-screen
giganti, pagarlo con una carta contactless e andare al
banco a ritirarlo. Questo potrebbe essere interpretato
come una forma di automazione del lavoro del
cameriere; in realtà, però, l’azienda mi ha convinto a
diventare un suo dipendente non retribuito...
• La tecnologia fa facilitato uno spostamento di chi
lavora, non ha sradicato il lavoro».

(Gavin Jackson, Why the robots haven’t risen yust jet, Financial
Times, 26 gennaio 2019).
Una conferma dalla Francia…
• «Tutto quello che ha a che fare con i bancomat, le casse
automatiche, i distributori automatici di biglietti in
stazione, sono esempi classici di automazione che
sostituisce il lavoro della persona di contatto, di
interfaccia, per esempio tra il supermercato e il cliente.
Questo lavoro non è sparito, è delegato ai consumatori
che diventano i cassieri di sé stessi, i bigliettai di sé stessi.
E resta la cassiera che fa un lavoro di psicologa, si occupa
di gestire le frustrazione del cliente che non riesce a
pagare da solo».
(Antonio A. Casilli, in Stefano Montefiori, Le macchine non
rubano il lavoro. Lo spostano, Corriere della sera, 17
febbraio 2019)
…e dagli Usa (e non solo)
«Amazon Go è il prototipo di una tecnologia sostitutiva. Oggi, negli Stati Uniti, 3,5
milioni di americani lavorano come cassieri. Ma nel negozio Amazon Go non vi sono
cassieri e nemmeno casse self-service. I clienti entrano, scannerizzano quello di cui
hanno bisogno.
Per ottenere questo risultato, Amazon sta sfruttando gli ultimi progressi nella visione
artificiale, nel deep learning e nella tecnologia dei sensori. Questi ultimi seguono i
clienti e identificano gli articoli che essi prendono e portano con loro. Amazon
addebita poi il conto sulla carta di credito strisciata al tornello di uscita e invia la
ricevuta alla app Go. Dopo il ritardo nell’inaugurazione del primo negozio di questo
tipo a Seattle, a causa di difficoltà nel tracking di più persone e oggetti, Amazon adesso
gestisce tre negozi Go a Seattle e un altro a Chicago, e ha pianificato l’apertura di altri
tremila negozi entro il 2021.
Anche aziende come Tencent, Alibaba e JD.com stanno investendo nell’intelligenza
artificiale per raggiungere lo stesso obiettivo.
Anche le aziende cinesi come JD.com hanno cominciato a investire più massicciamente
nei magazzini senza personale».

Fonte: Frey, cit


I robot diventeranno «persone»?
• Il dibattito sulla singolarità, ossia sull’idea che le macchine possano
diventare sufficientemente intelligenti da programmarsi e migliorare da
sole, fino al punto da rendersi indipendenti
• «La singolarità è l’ipotesi che l’Artificial general Intelligence, ossia l’Ia
capace di compiere tutte le attività umane ma con una maggiore capacità
computazionale, possa iniziare a un certo punto un ciclo auto-migliorativo
che conduca rapidamente le macchine a essere così intelligenti che gli
umani non possano più controllarle. Non so se questa sia un’ipotesi
ragionevole, perché siamo ancora molto lontani dal comprendere come
incorporare molte forme di intelligenza dentro le macchine. Comunque,
dobbiamo lavorare ora per rendere l’Ia allineata coi valori umani. Se ci
riusciremo, sia i sistemi di Ia artificiali esistenti sia quelli futuri più potenti
supporteranno il miglioramento umano e il benessere, con un impatto
positivo sulla nostra vita».
(Intervista a Francesca Rossi, in More than Human , cit)
Risposte contrastanti
• Per i transumanisti, saremo noi, non le
macchine a provocare questa evoluzione.
• Altri (Nick Bostrom) raccomandano cautela.
• Alcuni futurologi (es. Ray Kurzweil) sono
rassegnati.
• Un politologo (Francis Fukuyama) vede a
rischio il senso stesso di umanità.
Trans-umanesimo v. post-umanesimo
• Il transumanesimo «è l’ultima fase
dell’’umanesimo evoluzionista’ per il quale gli
umani, resi più potenti dalla tecnologia,
potranno realizzare il destino della propria
specie sia come esseri perfetti, persino
immortali, sia come manipolatori
incomparabili del proprio ambiente….
• Il postumanesimo, invece, sfida l’umanesimo sia
mettendone a nudo la dipendenza dalla cornice
teologica che proclama di sostituire sia denunciando il
suo storico appoggio a discriminazioni fra e all’interno
delle specie.
• La tecnologia non deve condurre al tecno-umanesimo
o transumanesimo. Piuttosto, esplorata attentamente,
l’IA rende possibile interrogarsi su questioni chiave
dell’umanesimo: la combinazione tra intelligenza e
coscienza e la venerazione per la seconda; la
consapevolezza di un sé distinto, autonomo, riflessivo;
la percezione dell’umano come misura di ogni cosa»
(Danielle Sands, Thinking Unthinkable Futures: Artificial Intelligence and
Posthumanism, in More than Human, cit).
Perché non è fatale
• «Perché le macchine possono essere in grado
di porsi da sole degli obiettivi e di modificarli,
ma la loro capacità è intrinsecamente limitata
agli scopi primari già previsti nella loro
progettazione».
Se mai, rischio opposto
• La preoccupazione principale non è che
«macchine come GPT-3 stiano diventando troppo
umane, ma che umani si comportino di più come
GPT-3: creiamo contenuti per gli algoritmi, non
per gli altri umani. Ci si attende che gli umani
diventino sempre più flessibili nei loro risultati e
nel loro agire, quali che siano le richieste del
datore di lavoro o di Twitter o di qualunque bolla
politica alle quali sono associati».

(Fonte: Vallor, cit. in Thornhill, cit).


La prudenza non guasta
• Per Herri Valpola, “il pensiero umano è composto di due
parti. La prima è il riconoscimento di azioni e oggetti. In
questo, il machine learning funziona molto bene ed è
molto rapido. La seconda è quello del pensiero
intenzionale, quello che ogni umano fa quando si
confronta con una situazione non interpretabile con
regole o abitudini già formate. Le reti neurali sono una
strada, come mostra il caso di Alpha Go, ma la capacità
di pianificare è ancora molto bassa”.
(Fonte: Guido Romeo, L’intelligenza artificiale che verrà, Il Sole-24 Ore, 14 gennaio
2018)
• Per Valpola, sul pensiero simbolico le
macchine ancora faticano: “Avremo macchine
molto più autonome, ma la singolarità, che
vede una completa indipendenza della
macchina dall’uomo è lontana. Quello che
possiamo aspettarci è qualcosa che si avvicina
al cervello di un mammifero come
funzionamento”.
(ibid.)
Il primato dell’uomo
• D. Quanto preoccupante, oggi, è il rischio che le macchine diventino
più intelligenti di noi?
• Stuart J. Russell. Mi permetta: forse non è la domanda giusta.
Perché più studiamo le macchine e più proviamo un autentico
stupore di fronte alle capacità del nostro cervello. Il punto di
partenza è che ancora non conosciamo bene potenzialità e limiti
del cervello umano. Dunque non possiamo prevedere le macchine.
La cosa più incredibile che si impara studiando l’Ia –
paradossalmente – è la grandezza dell’uomo. E la sua
imprevedibilità.

(Fonte: Roberta Scorranese: Intelligenza artificiale chiama Homo


sapiens, Il Corriere della sera, 26 ottobre 2017)
• Con le macchine dobbiamo stabilire «una sorta di
mutuo insegnamento: noi diamo loro delle
informazioni, loro danno a noi l’opportunità di
riflettere sulle conseguenze etiche delle azioni».
• Ossia: «L’obiettivo funzionale è offrire all’uomo
una migliore possibilità di cognizione, e non
rendere mai invece la cognizione una funzione
algoritmica sottratta all’uomo».
(Fonte: Paolo Benanti, Le macchine sapienti – Intelligenze artificiali e
decisioni umane, Marietti 1820, 2020, 6° ed.)
Ci possono essere casi positivi
• Affective computing: punta al riconoscimento
e alla riproduzione di sentimenti umani.
• Può migliorare l’interazione uomo-computer
(Human-computer interaction)…
• ...ma rischi: «Se un robot capace di esprimere
sentimenti in modo convincente può farci
agire contro i nostri stessi interessi, cioè
sottraendoci ogni impulso altruistico di
mettere i bisogni degli altri prima dei nostri,
spalanchiamo la porta a qualunque tipo di
disastro sociale».
Una tendenza inarrestabile
• «Le tecnologie informatiche e robotiche –
soprattutto se sviluppate a nanoscala –
saranno assimilate direttamente nei nostri
corpi e alla fine non sarà più possibile
tracciare una linea chiara tra esse e noi».
• Il rischio: che si sviluppi «un sistema di casta
basato sulla biologia».
(Michael Bess, Make Way for the Superhumans, Icon Books, 2016)
Coscienza in vista per i robot?
Forse No
«Abbiamo qualche idea di che cosa «L’approccio basato sulla
occorrerebbe per creare la coscienza irragionevole efficacia dei dati
in una macchina?...Con presenta abbastanza problemi da
l’apprendimento automatico l’Ia rendermi scettica sulla possibilità
impara dalle proprie interazioni, che l’uso dell’Ia rimpiazzerà
raggiungendo il successo dopo essere completamente gli esseri umani in
passata attraverso diversi fallimenti; e situazioni in cui può essere messa a
se fossero i primi passi di un cammino rischio la vita di altri, quali per
che infine potrebbe portare l’Ia a esempio la guida».
diventare cosciente, e quindi a essere
veramente creativa?».

(Marcus du Sautoy, Il codice della creatività –


Il mistero del pensiero umano aj tempo
(Meredith Broussard, La non intelligenza
dell’intelligenza artificiale», Rizzoli, 2019).
artificiale – Come i computer non capiscono il
mondo, Franco Angeli, 2019).
Il dibattito sta accelerando
• «David Chalmers, docente alla New York Univ.
ed esperto di filosofia della mente, suggerisce
che GPT-3 è abbastanza sofisticato da mostrare
segni rudimentali di coscienza. ‘Sono aperto
all’idea che un verme con 302 neuroni sia
cosciente, perciò sono aperto all’idea che GPT-3
con 175 mld. di parametri sia cosciente
anch’esso».
(Fonte: Thornhill, The imitation game, cit.)
In effetti, però, l’effettiva novità del GPT-3 sta nelle
capacità che sviluppa di generare ulteriori modelli.
«Al momento, esso funziona come una funzione
super-sofisticata, capace di infilare sequenze di
parole che suonano plausibili senza alcuna
consapevolezza di comprensione.
Come prevedeva Turing, i computer possono
acquisire competenze in molti campi, senza
acquisire comprensione.
E per John Etchemendy, il GPT-3, anche se può
essere stato addestrato per produrre testi, non ha
la capacità di intuire cosa quel testo significhi. Ma le
sue capacità potrebbero aumentare nel tempo».
Decisamente fredda Shannon Vallor per la quale
«il GPT-3 non ha nulla da esprimere. Non c’è
una comprensione maggiore del mondo che
tenti di trasmettere. Il GPT-3 può essere
chiunque e qualunque cosa. La sua modalità di
intelligenza non è unica e questo è esattamente
il suo potere» (cit. in Thornhill).
Tre forme di supervisione
• Human-in-the-loop: capacità di
intervento umano in ogni ciclo
decisionale del sistema;
• Human-on-the-loop: capacità di
intervento umano in ogni ciclo di
progettazione del sistema e di
monitoraggio del suo funzionamento;
• Human-in-command: capacità di
Fonte:
Rita Cucchiara,
L’intelligenza artificiale supervisionare l’attività complessiva
non è artificiale,
Mondadori, 2021
del sistema di IA.

Potrebbero piacerti anche