Sei sulla pagina 1di 10

Lezione 10 Maggio 2021: L’intelligenza artificiale

L’intelligenza artificiale non è un’altra utilità che deve essere regolamentata una volta
raggiunto un adeguato sviluppo; essa è una forza potente, una nuova forma di smart
agency, che sta già rimodellando le nostre vite, le nostre relazioni e il nostro ambiente.
Si parla di Intelligenza artificiale quando diversi siti ci propongono, mediante i cookies, ciò
che abbiamo cercato il giorno prima, in relazione alle nostre ricerche.
Un altro esempio di IA è avvenuto nel 2017 con Sophie, cui è stata attribuita la cittadinanza
saudita (quindi è un soggetto di diritto), nonostante lei fosse un robot -> si tratta di una
trovata pubblicitaria, un modo con cui il paese mostrava di essere all’avanguardia. E’
rilevante come Sophie, a differenza di tutte le femmine che vivono in Arabia Saudita, sia
stata rappresentata senza il velo. Ciò ha fatto inevitabilmente porre la domanda: i robot
hanno un genere (maschile o femminile)?
Quello che si è potuto dire è che comunque i robot abbiano una eterosessualità: ciò è
emerso dal matrimonio di Zheng Jiajia e Yingying. Zheng Jiajia è un ingegnere cinese di 32
anni , impegnato proprio nella realizzazione di intelligenze artificiali. Si sa che è dall’Oriente
ce arrivano i progressi migliori, e infatti Zheng è uno dei migliori. Su un prototipo ha ottenuto
risultati talmente buoni, da decidere di sposare un robot.
Zheng ha creato una donna robot in grado di formulare piccole frasi di senso compiuto, di
riconoscere i caratteri cinesi e le immagini..Esteticamente la donna robot è stata realizzata
con i canoni estetici che più aggradano l’ingegnere cinese. Le venne attribuito un nome: si
chiama Yingying, mentre il cognome sarà quello del marito, visto che l’ingegnere cinese ha
deciso di sposarla.
La cerimonia è stata molto semplice e aperta a solo un piccolo nucleo di invitati.

Nel 2014, una società di venture capital di Hong Kong ha cooptato nel proprio consiglio di
amministrazione ha cooptato nel proprio consiglio di amministrazione un algoritmo per
investimenti (vital) riconoscendogli lo stesso diritto di voto attribuito agli altri 5 consiglieri
umani.
Anche Baker Hostetler, uno studio legale statunitense, ha assunto algoritmi dotati di
intelligenza artificiale per esaminare i casi di bancarotta di cui doveva occuparsi, con la
supervisione e la verifica di avvocati umani, mentre un altro studio ha usato l’intelligenza
artificiale per presentare un ricorso contro 160.000 multe per divieto di sosta.
L’intelligenza artificiale sta influendo anche sulle modifiche del diritto penale, che sta
cambiando: gli algoritmi predittivi vengono utilizzati ai fini della valutazione della pericolosità
di un soggetto. Si parla di Smart Crime Scene, ossia le immagini e i suoi che vengono
registrati da un computer mentre accade una scena del crimine sono rilevanti

Il ruolo dell’Intelligenza artificiale è sintetizzato nella frase “Se ci sono elettroni, ci saranno
elezioni” -> significa che se abbiamo un processo di intelligenza artificiale, allora prima o poi
essa assumerà un’autonomia decisionale. (un problema dell’IA sarà proprio la sua
soggettività).

Oggi si parla di Datacrazia = cioè c’è un nuovo potere: si tratta del potere del controllo dei
dati che involontariamente ognuno di noi fornisce. Essi sono GAFAM o GAFAIM, cioè
Google, Apple, Facebook, Amazon, IBM e Microsoft. Questi hanno fatto della ricezione dei
dati la loro principale fonte di profitti e di potere. La ‘data sovereignty’ condiziona i mercati,
forgia la società e indirizza gran parte degli investimenti sulla ricerca.
Ciò sta cambiando profondamente la società in cui viviamo: Amazon sbaraglia i grandi
magazzini, GameStop mette in crisi gli hedge fund, Uber cambia i trasporti, i bitcoin mettono
in discussione il sistema monetario, il Cyber Warfare opera a più livelli: la cyber propaganda
per diffondere notizie false e alterare i processi di informazione; il doxing per sottrarre notizie
private e poi utilizzarle a scopi eversivi; lo spear fishing per acquisire in maniera mirata i dati
sensibili per condizionare gli sviluppi economici.
Inoltre, dal punto di vista economico, Apple ha una posizione di cassa di quasi 200 miliardi di
dollari; per Amazon lavorano 1,2 milioni di persone.

Un’altra grande invenzione collegata all’Intelligenza Artificiale è il Cloud: Oggigiorno, grazie


alla diffusione di dispositivi quali smartphone, tablet e computer portatili, siamo in grado di
accedere ad Internet praticamente da ogni luogo, con tutti i pro e i contro che questo possa
comportare. Certe volte, però, può capitare di creare un file sul computer di casa, ma
l’indomani, recandosi a lavoro, ci si potrebbe dimenticare di portare con sé proprio quel file.
Altre volte, invece, potrebbe capitare di ritrovarsi con più copie di uno stesso file e di non
sapere, purtroppo, qual era il file di cui si aveva realmente bisogno. Nella peggiore delle
ipotesi, si potrebbe perdere lo smartphone, il tablet o il computer portatile contenente tutti i
propri file, o, peggio ancora, potrebbe persino anche accadere che il proprio dispositivo
preferito smetta improvvisamente di funzionare.Per risolvere questi ed altri problemi del
genere è nato quindi il cloud (termine inglese che significa nuvola e che in italiano si
pronuncia clàud) che non è altro che uno spazio di archiviazione personale, chiamato
talvolta anche cloud storage (si pronuncia clàud storij), che risulta essere accessibile in
qualsiasi momento ed in ogni luogo utilizzando semplicemente una qualunque connessione
ad Internet. Bisogna comunque precisare che con il termine cloud, oltre che a riferirsi al
cloud storage, a volte ci si potrebbe riferire anche ad altri servizi offerti dal cloud computing
(si pronuncia clàud compiùting).
Il cloud storage, dunque, non fa altro che sincronizzare tutti i propri file preferiti in un unico
posto, con il conseguente vantaggio di riscaricarli, modificarli, cancellarli e/o aggiornarli,
senza avere quindi più il bisogno di portare con sé hard disk esterni, pen drive USB, o
qualsiasi altra cosa che normalmente è possibile perdere o dimenticare. Oltre a questo,
volendo, ci sarà anche la possibilità di fare delle preziose copie di backup, nonché di
condividere tutti i propri file preferiti con chi si vorrà, e per quanto tempo si vorrà, con indubbi
vantaggi in termini di tempo e praticità.
E’ stato calcolato che ogni minuto del 2018 Google ha effettuato 3,88 milioni di ricerche, le
persone hanno guardato 4,33 milioni di video su youtube, inviato 159.362.760 mail,
pubblicato 473.000 tweet e pubblicato 49.000 foto su instagram.
Si è man mano sviluppata, progressivamente, l’Ingegneria dei materiali e la Biologia
sintetica: le nanotecnologie ci consentono di intervenire sui sistemi organici, inorganici e sui
materiali. Grazie a questo sono stati creati dei computer biomolecolari che sfruttano la
capacità del DNA di immagazzinare enormi quantità di informazione, oppure computer
quantistici che sfruttano la ‘funzione d’onda’ equivalente ad una certa quantità di
informazione. Un esempio è dato dalla Bioprinting, cioè fotocopiatrici che riproducono
materiale biologico, ed il cui toner consente di trasformare un impulso in materiale biologico;
attraverso queste sono stati prodotti cervelli, polmoni..
Quindi oggi non si parla più di una semplice tecnologia, ma di una ‘Tecnologia 4.0’, ossia
una tendenza all’automazione industriale che integra alcune nuove tecnologie produttive per
migliorare le condizioni di lavoro, creare nuovi modelli di business e aumentare la quantità e
la qualità produttiva; essa si pone in connessione alla cd. ‘Vita 3.0’, cioè la capacità che oggi
ognuno di noi ha di cambiare la dimensione biologica, di potenziare le strutture biologiche e
costruire nuove forme di vita. Si ha così un’integrazione tra sistemi fisici e digitali, tra
organico e inorganico.
Oggi si parla di ‘Smartification della vita quotidiana’ : la nostra vita è inserita in un mondo in
cui la tecnologia ci assiste e aiuta in tutto quello che facciamo, e siamo noi stessi a sentire
quasi il bisogno di essi. Abbiamo orologi intelligenti, auto intelligenti, termostati intelligenti,
frigorifero intelligente..
I progressi dell’intelligenza artificiale hanno permesso ai progettisti di tradurre conoscenze di
psicologia e neuroscienze in algoritmi che permettono ai robot di riconoscere le voci, le
emozioni, interpretare un discorso e i gesti, rispondere appropriatamente a complessi
segnali verbali, cercare il contatto visivo, conversare, imparare dalle reazioni.
Oltre che alla Biosfera, si è creata l’Infosfera = composta da tutti quei dati veicolati,
conservati e rielaborati dall’insieme delle tecnologie della comunicazione e dell’informazione.
Biosfera e Infosfera sono due mondi paralleli, ma entrambi cambiano la nostra vita.
Emergono due profili:
- un profilo tecnologico = riguardante l’utilizzo dei computer per fare cose utili
- un profilo antropologico = riguardante i concetti e i modelli dell’Intelligenza artificiale
per contribuire a rispondere a interrogativi che riguardano gli esseri umani e gli altri
esseri viventi.
Per cui le domande che sono sempre state viste come ‘domande filosofiche’, assumono
adesso un aspetto scientifico (neuroscienze) : Cos’è l’intelligenza? Cos’è il pensiero? Cos’è
l’individualità? Cos’è la coscienza?
L’intelligenza artificiale e l’importanza che ha assunto nel tempo ci fanno capire come dei
movimenti che per noi esseri umani sono semplicissimi da compiere, in realtà, dal punto di
vista tecnologico, sono difficilissimi da ricreare; d’altro canto, il robot è sempre più in grado di
compiere operazioni matematiche che per noi umani risultano pressoché impossibili.

Karl Kraus, scrittore tedesco, a seguito della prima guerra mondiale, scrisse <<Siamo stati
abbastanza complicati da costruire la macchina e siamo abbastanza primitivi per farci
servire da essa>>.
Allo stesso modo, Ursula von der Leyden disse <<Gli umani sono sempre stati più bravi a
inventare nuovi strumenti, che ad usarli in modo saggio>>.
Si nota come la Presidente della Commissione Europea (ursula) a distanza di tanto tempo
abbia detto ciò che, in altri termini, aveva detto prima Kraus nel 1936.

La proposta al Parlamento europeo per l’armonizzazione delle regole per l’intelligenza


artificiale sancisce che per ‘Sistema di intelligenza artificiale’ (IA system) = si intende un
software sviluppato con una o più delle tecniche e approcci (machine learning, sistemi di
apprendimento logici, algoritmi) in grado, per una serie di obiettivi definiti dall’uomo, di
generare risultati quali contenuti, previsioni, raccomandazioni o decisioni che influenzano gli
ambienti con cui interagiscono.
Con l’espressione ‘natural persons’ = si fa riferimento al fatto che le persone fisiche
dovrebbero essere informate che stanno interagendo con un sistema di IA, a meno che ciò
non sia evidente dalle circostanze e dal contesto di utilizzo. Inoltre, le persone fisiche
dovrebbero essere informate quando sono esposte ad un sistema di riconoscimento delle
emozioni o a un sistema di classificazione biometrica.
Questa dimensione dell’IA è definita ‘umano-centrica’ e si traduce, all’interno della proposta,
in:
- divieto di sorveglianza di massa
- divieto di sistemi di social scoring -> per social scoring si intende il controllo delle
emozioni. Si tratta di un sistema chiamato 4Little trees, sviluppato a Hong Kong, che
sostiene di valutare le emozioni dei bambini mentre fanno i lavori in classe.Esso
mappa le caratteristiche facciali per assegnare lo stato emotivo di ogni allievo in una
categoria come felicità, tristezza, rabbia, disgusto, sorpresa e paura; misura anche i
gradi di motivazione e impegno. Strumenti simili sono stati commercializzati per
fornire sorveglianza ai lavoratori in remoto. Secondo una stima, nell’anno 2016 il
settore di riconoscimento delle emozioni sarebbe dovuto crescere fino ai 37 miliardi
di dollari.
- european artificial intelligence board
- un sistema di certificazione degli algoritmi impiegati
- principio del controllo umano significativo

La più importante questione che si pone circa l’IA è: Se l’intelligenza produce tecnologia,
allora essa (intelligenza) può essere prodotta dalla tecnologia?
Al riguardo, si assiste alla contrapposizione tra la visione religiosa e la visione scientifica:
secondo la prima, il disegno in cui andrebbe collocata l’intelligenza artificiale è dato
dall’opera di Dio, il quale creando il mondo, ha delineato un essere umano dotato di
intelligenza; la seconda, invece, è una visione che fa riferimento allo ‘specismo’, ossia alla
visione secondo cui l’uomo costituirebbe una specie ‘privilegiata’ rispetto alle altre, in quanto
dotato di intelligenza. Lo studio e le teorie scientifiche più accreditate mettono in luce la cd.
‘teoria del big bang’, sostenendo che il tutto sia nato da una esplosione e da cui siano
derivate tutte le sostanze chimiche di cui disponiamo oggi nell’universo (protoni, quark..).
Tali sostanze chimiche, per effetto di una scossa elettrica (il cd. brodo primordiale), hanno
prodotto le sostanze biochimiche estremamente semplice, che man mano si sono
sviluppate.. da virus sono diventate batteri, fino al punto da essersi trasformate in esseri
umani. A tal proposito, Darwin e la cd. ‘dinamica dei sistemi complessi’ mettono in luce
come l’intelligenza umana sia il frutto casuale dell’ingegneria biochimica della natura.
Questi stimoli sono diventati sempre più complessi in proporzione all’aumento della loro
reazione agli stimoli esterni. -> ed è proprio per questa proporzionalità che Darwin disse che
‘non sopravvive l’essere più forte, ma colui che ha maggiore capacità di adattamento’ (ed è
questa la ragione per cui i dinosauri si sono estinti).
Se una combinazione di atomi può produrre qualcosa di superiore come l’intelligenza
umana, anche l’intelligenza umana può produrre una macchina intelligente, anzi ancora più
intelligente dell’uomo stesso. E anche questa macchina intelligente potrà produrre poi
un’altra macchina ancora più intelligente, che potrà produrre un’altra macchina ancora più
intelligente, e così all’infinito.

Riguardo alla soggettività dei robot, la Risoluzione del Parlamento europeo relativa alle
norme di diritto civile sulla robotica non esclude ‘l’istituzione di uno status giuridico specifico
per i robot nel lungo termine, di modo che almeno i robot autonomi più sofisticati possano
essere considerati come persone elettroniche responsabili di risarcire qualsiasi danno da
loro causato, nonché eventualmente il riconoscimento della personalità elettronica dei robot
che prendono decisioni autonome o che interagiscono in modo indipendente con terzi’.
L’interazione con l’uomo è diversa e dipende dal tipo di essere vivente, vi sono diverse
capacità di reazione (una mucca reagisce in modo diverso di una pianta, di un gatto..)
L’autonomia di un robot può essere definita come la capacità di prendere decisioni e
metterle in atto nel mondo esterno , indipendentemente da un controllo o un’influenza
esterna. Tale autonomia è di natura puramente tecnologica e il suo livello dipende dal grado
di complessità con cui è stata progettata l’interazione di un robot con l’ambiente.
Stephen Hawking disse <<Se delle molecole chimiche molto complicate possono operare
negli esseri umani in modo da renderli intelligenti, dei circuiti elettronici altrettanto elaborati
potrebbero a loro volta far agire i computer in modo ingegnoso. E una volta raggiunta
l’intelligenza è presumibile che loro stessi saranno in grado di progettare altri dotati di una
complessità e di un acume ancora più sviluppati>>.
Le macchine in grado di ‘comprendere automaticamente’ (come la comprensione di un
bambino) sono definiti “machine learning”; il cervello umano funge da parametro per
misurare l’intelligenza di queste macchine.
Inoltre, si parla di “Deep learning”, cioè di ‘apprendimento profondo’, per intendere la
capacità di tali macchine di elaborare, da sole, dati sempre più complessi; e di “IA Strong”,
cioè IA forte. Essa è legata alla ‘singolarità’.

Una macchina autonoma, in grado di prendere decisioni autonome, è dotata di morale? Se


sì, quale codice etico dovrebbe seguire la macchina?
E’ significativo notare che l’IA non è vista in modo negativo dal pensiero religioso: nella
misura in cui Dio è pensiero, attraverso l’Intelligenza artificiale si incontra proprio Dio
(panteismo = tutto ruota intorno al pensiero).
Invece, secondo il panenteismo, tutte le cose naturali sono intrise di pensiero anche se non
ce ne rendiamo conto. Per cui l’IA è il modo più evoluto per incontrare Dio.

Lezione 11 Maggio 2021:


Parlando di IA forte, abbiamo detto che essa è legata alla ‘Singolarità’, un termine preso in
prestito dalla matematica e dalla fisica, che indica quel punto “nel quale e al di là del quale le
normali leggi della causalità e della misurabilità smettono di funzionare”. (quindi quando i
parametri che conosciamo non sono più utilizzabili).
Vernor Vinge, uno studioso di fantascienza, in un saggio del 1983 scrisse <<Presto
creeremo intelligenze superiori alla nostra. Quando ciò accadrà, la storia umana avrà
raggiunto una sorta di singolarità, una transizione intellettuale tanto impenetrabile quanto i
nodi dello spazio-tempo al centro di un buco nero, e la realtà andrà ben oltre la nostra
comprensione>>.
In concetto di singolarità è stato fatto proprio dall’informatico Kurzweil, e l’ha definita anche
‘Intelligenza+’. Egli afferma che l’Intelligenza+ sarà raggiunta entro il 2030 e che entro il
2045 (combinata con la nanotecnologia e la biotecnologia) avrà sconfitto la guerra, le
malattie, la povertà e la morte individuale. Ciò propizierà un’esplosione dell’arte, della
scienza e delle altre forme di conoscenza che daranno vita al suo vero significato. Entro la
metà del secolo, inoltre, vivremo immersi in realtà virtuali di gran lunga più ricche e intense.
(per lui, quindi, la singolarità è un fatto positivo).

Il tema della singolarità si collega ad un altro fatto, il cd. ‘Default tecnologico’, ed i cui effetti
sono legati alla singolarità. -> In fisica, una singolarità è un punto nello spazio o nel tempo,
come il centro di un buco nero o l’istante del Big Bang, nel quale la matematica smette di
funzionare e con essa anche la nostra capacità di comprendere. Una singolarità nella storia
umana potrebbe verificarsi se l’avanzamento tecnologico progressivo dovesse giungere a un
cambiamento talmente radicale da determinare la perdita di controllo sul funzionamento
delle macchine (default tecnologico). Il default tecnologico si basa su ciò che Ray Kurzweil
chiama “legge dei ritorni acceleranti” : secondo cui un’area della tecnologia è soggetta alla
legge dei ritorni acceleranti se il tasso di miglioramento della tecnologia è proporzionale a
quanto la tecnologia è funzionale. In altre parole, migliore è la tecnologia, più velocemente
essa migliora, con un miglioramento esponenziale col passare del tempo.
Si pone quindi una domanda: le macchine saranno sempre stupide? Dove finisce
l’intelligenza ristretta e specializzata della singola macchina e comincia l’intelligenza? Se
consideriamo ‘stupida’ la singola macchina, possiamo affermare lo stesso del ‘sistema’ di
macchine che si sta profilando all’orizzonte? (es. diciamo che una macchina è ‘stupida’
quando non parte). Non si sa quello che dobbiamo aspettarci al riguardo, in quanto né la
teoria elettromagnetica di Maxwell, né la teoria quantica di Heisenberg sono ancora in grado
di spiegarci come la chimica diventi coscienza negli scambi tra i nostri neuroni (non sono in
grado di spiegarci quindi come nasce il pensiero), e non conosciamo neppure il ruolo della
genetica.
Di fronte a questo futuro assolutamente nuovo, le reazioni sono di due tipi: una di stupore e
felicità, l’altra di disperazione.
Stephen Hawking e Stuart Russel dissero che, appunto, un’intelligenza artificiale completa
potrebbe segnare la fine della razza umana.
Edsger Dijkstra, un informatico olandese vincitore del premio Turing nel 1972, disse che
<<Chiedersi se un computer sa pensare non è più interessante che chiedersi se un
sottomarino sa nuotare o se un aereo sa volare>> -> egli quindi afferma che porsi queste
domande non ha senso, in quanto esse stesse sono prive di senso; si tratta solo di
macchine create per questo.
Un altro scienziato disse che <<Preoccuparsi di una IA ‘cattiva’ è un po’ come preoccuparsi
del sovraffollamento su Marte. Forse un giorno arriveremo al punto in cui l’intelligenza dei
computer supererà la nostra, ma quel momento è ancora lontanissimo. A dire il vero, è
lontano persino quello in cui riusciremo a creare un’intelligenza pari a quella di un
porcospino. Oggi siamo fermi al verme>>. = per cui si tratta di domande prive di senso.
L’orizzonte e il futuro che si aspetta è quello del Transumano o Cyborg, cioè un interscambio
sempre maggiore tra meccanica e biologia, tra esseri umani e computer, i quali questi ultimi
integreranno sempre i nostri limiti umani. L’essere umano vivrà sempre di più di
trasformazioni dovute ad impianti computerizzati connessi direttamente al suo cervello e di
protesi per arti o organi (es. il pacemaker)
Nel libro “Novacene” è illustrato come si avrà un mondo totalmente controllato
dall’intelligenza artificiale, in cui gli esseri umani diventano superflui.
Di fronte a questi possibili sviluppi, vi sono 3 visioni:
1. i Tecnottimisti = secondo cui il post-umano o il trans-umano saranno l’esito
straordinario che si determinerà per effetto della fusione della tecnologia del carbonio
che sta alla base del corpo umano con la tecnologia del silicio propria dei computer,
dando vita a creature, tendenzialmente immortali, dotate di capacità attualmente
neppure immaginabili. Vivremo in eterno trasformandoci in un misto di silicio e
neuroproteine, saremo dotati di impianti computerizzati direttamente connessi al
cervello oltre che di protesi per arti e/o organi di senso. L’evoluzione naturale che ha
portato all’affermazione dell’homo sapiens si completerà artificialmente con
l’evoluzione all’homo technologicus capace, attraverso lo sviluppo scientifico, di
superare quei limiti fisici e quelle barriere culturali che oggi ci sembrano invalicabili.
Come afferma Bill Gates “Nessuno può dire con certezza quando o se la robotica
raggiungerà la massa critica. Se ce la farà, il mondo non sarà più lo stesso”.
2. I Tecnopessimisti = secondo cui se l’intelligenza artificiale fosse effettivamente in
grado di apprendere autonomamente a un ritmo più rapido del nostro, finirà per
sfuggire a qualsiasi controllo. Non c’è nessun motivo per ipotizzare che sia possibile
instillare nelle macchine il ‘nostro’ senso morale (che è degli uomini) o che le
macchine sviluppino una morale compatibile con la nostra. Gli esseri umani saranno
assoggettati, come noi abbiamo assoggettato tutte le specie intellettualmente
inferiori, oppure diverranno superflui all’interno di meccanismi evolutivi che non
dipenderanno dalla loro volontà. A maggior ragione dobbiamo preoccuparci di tutto
questo nell’ipotesi , difficile da escludere, in cui la super-intelligenza si dovesse
impadronire della tecnologia del DNA, alterando e riproducendo le forme di vita.
3. I Tecnoscettici = secondo cui l’intelligenza artificiale non sarà mai in grado di
modellare gli stati d’animo o le emozioni perchè dipendono dagli ormoni e dai
neuromodulatori, che non sono riproducibili meccanicamente. Il carbonio non è il
silicio e quindi l’immaterialità del pensiero, dei sentimenti e della coscienza non
potranno mai derivare dalla connessione di particelle di materia. Qualsiasi computer
sarà sempre ‘riproduttivo’ delle regole imposte dall’uomo e non sarà mai in grado di
sviluppare un processo cognitivo autonomo. C’è una barriera tecnologicamente
invalicabile tra la sintassi (connessione tra le parole), la mera connessione logica dei
vari impulsi che è assemblabile in termini matematici, e la semantica, l’astrazione
simbolica del pensiero umano che nessun algoritmo potrà mai produrre. La
combinazione sintattica di parole non è in sé la suggestione semantica di una poesia.
Le macchine sapranno contare o costruire macchine estremamente complesse, ma
seguiranno sempre e solo programmi preordinati, e non saranno mai in grado di
domandare ‘perché? perché costruire una macchina? che senso ha progettare un
nuovo meccanismo?’. Esse potranno avere al massimo l’intelligenza di un uccello e,
come un uccello, andranno sempre a sbattere inutilmente e insistentemente contro i
vetri di una finestra chiusa; saremo sempre noi a decidere di aprire o chiudere la
finestra. Le macchine saranno sempre stupide o al massimo stupidamente
intelligenti.
Dunque, dentro i computer non c’è chimica: l’intelligenza artificiale non sarà mai in grado di
modellare gli stati d’animo, o le emozioni, in quanto dipendono dagli ormoni e dai
neuromodulatori. Le macchine inanimate a base di circuito di silicio funzionano in un certo
modo, mentre i sistemi viventi a base di carbonio funzionano in modo diverso. I computer
non hanno una volontà perché sono il frutto dell’ingegneria (e non dell’evoluzione). Perfino
un computer infinitamente potente sarebbe sempre solo un’estensione della nostra volontà,
di cui non dobbiamo avere paura. I computer hanno la sintassi, ma non la semantica.

L’intelligenza artificiale si fonda su una rete di connessione dei neuroni e su un continuo


scambio di contatti; essa riproduce questi scambi in uno schema matematico
Come si elabora l’intelligenza artificiale? Le condizioni (biologiche) per una Intelligenza
artificiale forte sono:
1) Il comportamento intelligente, negli umani così come fra gli altri animali, è mediato
dall’attività cerebrale, a sua volta governata da leggi della fisica.
2) Il livello di dettaglio fisico necessario per ottenere una effettiva indistinguibilità nel
carattere di una emulazione non è così minuzioso.
3) Le attuali tecnologie di mappatura e computazione miglioreranno sufficientemente
(forse di due o tre ordini di grandezza nel caso del topo) in un periodo di tempo
relativamente breve.
Come apprendono oggi i computer? Vi sono diverse tecniche:
- Top down: è il sistema iniziale, in cui vengono indicate le stringhe (regole)
matematiche con l’indicazione di tutte le funzioni (es. per il gioco degli scacchi, viene
creato un algoritmo per elaborare tutte le regole che lo disciplinano)
Tuttavia questo modello di apprendimento è stato abbandonato, e si è passati ad un modello
Bottom up.
- Bottom up: un sistema in cui si lascia che il computer apprenda da sè come un
bambino e si autocorregga. Il computer si dà un obiettivo da raggiungere non per
mezzo dell’aiuto di un sistema, ma da raggiungere da solo. Nonostante il successo
nell’imitare il comportamento degli insetti, quando si è cercato di riprodurre il
comportamento di organismi superiori, come i mammiferi, le performance dei robot
basati su reti neurali sono state disastrose. Il miglior robot a reti neurali sa
camminare da un capo all’altro di una stanza e sa nuotare, ma non sa saltare, né
muoversi nella foresta come un cane da caccia o muoversi rapidamente in una
stanza come un ratto. Le reti neurali di un robot del genere possono essere formate
da decine, o al massimo da centinaia di ‘neuroni’: il nostro cervello, invece, è formato
da più di 100 miliardi di neuroni veri.
Il sistema nervoso di C. elegans (un verme primitivo) è stato mappato
completamente e si è scoperto che è composto da circa 300 neuroni: si tratta con
ogni probabilità di uno dei sistemi nervosi più semplici esistenti in natura; i suoi
neuroni sono connessi da più di 700 sinapsi. Per quanto possa essere semplice, il
sistema nervoso di C.elegans è così complesso che nessuno è mai riuscito a
costruirne un modello al computer.
Per questo si è passati alle machine-learning, il cui apprendimento è di 3 tipi:
1. Apprendimento non supervisionato = per elaborare un algoritmo per diagnosticare
una determinata patologia, si iniziano a raccogliere due serie di dati: immagini
mediche e risultati dei test di pazienti sani e immagini mediche e risultati dei test di
pazienti malati. Si inseriscono questi dati in un programma progettato per identificare
le caratteristiche condivise dei pazienti malati e, in base alla frequenza con cui rileva
determinate funzionalità, il programma assegnerà valori al significato diagnostico di
tali funzionalità, generando un algoritmo per le diagnosi dei pazienti futuri.
2. Apprendimento supervisionato = dopo che il programma genera l’algoritmo, i medici
fanno la diagnosi finale e verificano l’accuratezza della previsione dell’algoritmo.
Inoltre, gli informatici possono utilizzare i set di dati aggiornati per regolare i
parametri del programma e migliorarne l’accuratezza.
3. Apprendimento rinforzato = successivamente, si analizza l’efficacia di farmaci,
dosaggi e trattamenti. Si confrontano i dati con il profilo di ciascun paziente per
creare il loro piano di trattamento unico e ottimale. Man mano che i trattamenti
progrediscono e il programma riceve più feedback, può aggiornare costantemente il
piano per ogni paziente.
E’ emerso un dato paradossale: che i risultati sono migliori quando l’algoritmo lavora su dati
grezzi, nel senso che pare che la machine learning che usa set di dati sporchi con milioni di
voci possa essere estremamente efficiente nei suoi compiti, mentre la machine learning ce
sfrutta set di dati puliti con appena un milione di voci è addirittura inutile.
Un altro problema che emerge è quello del Blackbox effect: riguardante il fatto che nel corso
dell’apprendimento si creano categorizzazioni e connessioni che in parte sfuggono al nostro
ragionamento; più complesso è il sistema, più si complessifica. Più si complessifica il
sistema, più sono gli elementi che sfuggono al nostro controllo.
Famoso è il caso del “colpo 37”, cioè il colpo con cui un computer AlphaGo ha sconfitto il
campione del mondo Lee Sedol in una partita di Go, il gioco più difficile da inserire in un
sistema informatico a causa della sua complessità. Secondo gli esperti si trattava di una
mossa apparentemente sbagliata, anzi assurda, ma decisiva per la vittoria. Come può un
algoritmo, scritto da esseri umani, fare quello che gli esseri umani non sono in grado di
concepire?
Riguardo la vittoria in una partita di scacchi, Kasparov scrisse <<Mio Dio, credevo che per
giocare a scacchi si dovesse pensare. Adesso capisco che non ce n’è bisogno. Ciò che è
successo non implica che Kasparov non sa riflettere, ma solo che giocando a scacchi si può
fare a meno della riflessione, proprio come si può volare senza battere le ali>>. -> il
computer non ha pensato, ma attraverso quella mossa ha vinto.
Si pone il cd. “Blackbox problem” = cioè è impossibile da parte degli stessi programmatori e
tecnici spiegare come il sistema sia arrivato a determinati risultati.
Tuttavia, si deve prendere atto del fatto che, dati gli attuali limiti tecnologici, è irrealistico
aspettarsi che i sistemi di supporto decisionale di apprendimento automatico siano in grado
di generare, in tutte le circostanze, spiegazioni complete per le previsioni che fanno. Per
questo bisogna sempre capire di quale tipo di macchine si tratti:
- Macchine human in the loop = cioè quelle macchine in cui tutte le operazioni
avvengono sotto l’integrale controllo umano
- Macchine human on the loop = cioè quelle che agiscono autonomamente, ma vi è
una supervisione umana
- Macchine human post loop = gli esseri umani non possono condizionare
direttamente l’operato delle macchine, ma possono intervenire ex post per bloccarne
l’azione
- Macchine human out of the loop = le macchine operano in assoluta autonomia senza
nessuna possibilità di controllo umano né preventiva, né successiva (default
tecnologico o singolarità)
Quando si parla di macchine che funzionano autonomamente si fa indirettamente riferimento
all’algoritmo che le regola. Esistono 3 tipi di algoritmi:
1. Algorithm based decisions = cioè le ‘decisioni basate su algoritmi’. Si tratta di
decisioni integralmente umane, anche se basate in tutto o in parte su informazioni
ottenute mediante i calcoli algoritmici
2. Algorithm driven decisions = cioè le ‘decisioni guidate da algoritmi’. Si tratta di
decisioni che sono prevalentemente umane, ma in termini molto ristretti rispetto a
quanto determinato dall’esito delle procedure informatiche
3. Algorithm determined decisions = cioè le ‘decisioni determinate da algoritmi’. Sono
gli esiti dei processi digitali ad assumere le decisioni, senza alcun intervento umano
Quanto più si sviluppa l’IA, tanto più si tende ad imitare il cervello umano. Fino a che punto
si può imitare il cervello? Noi oggi conosciamo tantissime cose sul cervello, ma non
sappiamo esattamente come esso funzioni.
La network neuroscience, cioè la neuroscienza delle reti, sta facendo grandi progressi nella
mappatura delle funzioni cerebrali e nell’individuazione dei diversi moduli di queste funzioni
e dei nuclei delle loro interconnessioni, ma è come se fossimo in ‘una sala concerti e
avessimo visto solo il disegno degli strumenti’. Siamo ancora ben lontani dal capire come
funzioni il nostro pensiero.

Potrebbero piacerti anche