Sei sulla pagina 1di 11

Lezione 17 Maggio 2021:

Blackbox effect = cioè qualsiasi strumento di intelligenza artificiale ha un margine di


indeterminazione, quindi può sfuggire al controllo umano. Pertanto non è possibile garantire
un controllo integrare tanto più questi strumenti si evolvono.
Dobbiamo prendere atto del fatto che, dati gli attuali limiti tecnologici, è irrealistico aspettarsi
che i sistemi di supporto decisionale di apprendimento automatico siano in grado di
generare, in tutte le circostanze, spiegazioni complete per le previsioni che fanno.

Dall’altro lato si ha il problema che l’IA tende sempre più a plasmarsi sul modello del cervello
umano, riproducendo i suoi meccanismi di funzionamento.
Le neuroscienze = sono una pluralità di tecnologie (biologia molecolare, fisiologia, chimica,
ingegneria, informatica) che ‘convergono’ nello studio dell’evoluzione del cervello, dei
processi cerebrali (sensazioni, percezioni, memoria, apprendimento), del rapporto tra
organismo e sistema nervoso, e quindi dei disordini neurologici o psichiatrici
Ciò è strettamente collegato al Reverse engineering = ossia il programma di
ingegnerizzazione del cervello che nel Gennaio 2013 Obama e la comunità europea hanno
annunciato di voler finanziare. Esso si propone di decodificare e mappare i percorsi neurali
sul modello di quanto è già avvenuto con il genoma. In questo modo sarà certamente
possibile costruire macchine sempre più sensibili e quindi sempre più efficaci nel dare la
morte (nel caso dei robot killer), perché dare la morte è una delle cose che riesce meglio, e
sempre più efficaci nell’interagire con gli esseri umani.
Il Reverse engineering è connesso all’uploading del cervello = l’uploading del cervello può
avvenire immaginando di creare sciami di nano-robot in grado di nuotare liberamente nella
rete di vasi sanguigni del cervello, con ognuno di essi in grado di aderire come una patella
alla membrana di un neurone o vicino a una sinapsi. Il nano robot resterebbe lì, a rilevare il
potenziale della membrana fluttuante di un neurone o a registrare eventi di spike, per poi
trasmettere questa informazione live in un parco di dispositivi micrometrici intermedi, vicini
alla superficie corticale. Il compito di queste stazioni intermedie sarebbe quello di raccogliere
i dati in arrivo delle numerose ‘patelle-neuronali’ e di trasmetterli al livello esterno, dove
verrebbero estrapolati dal neuroscienziato.
Pertanto, le tecniche di ‘ingegnerizzazione inversa’ tentano di replicare meccanicamente il
funzionamento del cervello. Dopo la simulazione del cervello di un topo, si è arrivati a quello
di un ratto, che contiene centocinquanta milioni di neuroni e presenta notevoli somiglianze
con il cervello umano soprattutto nell’organizzazione della corteccia cerebrale.
Come si scansiona il cervello di un topo?
- il topo viene ucciso e gli viene estratto il cervello
- il suo proencefalo viene sezionato in fette ultrasottili
- ogni fetta è scansionata e digitalizzata usando microscopi elettronici
- la posizione e il tipo di ogni neurone, la forma di ogni assone e di ogni dendrite,
l’ubicazione e il tipo di ogni sinapsi, vengono ricostruiti interamente al computer, a
partire dalla quantità di immagini ricavate.
- il risultato è un’enorme mole di dati che cattura gran parte dell’essenza del cervello
originario, esattamente il tipo di schema che ci serve per trasformarlo in algoritmo.
Ciò dimostra come siano complessi gli sviluppi tecnologici che abbiamo di fronte.
Tuttavia, il cervello di un topo contiene oltre 70 milioni di neuroni e ognuno di questi può
avere diverse migliaia di connessioni sinaptiche. Un cervello umano contiene oltre 80
miliardi di neuroni, con decine di migliaia di miliardi di sinapsi. Metodi ad alta intensità
computazionale come la procedura affetta-scansiona avranno difficoltà davanti alla quantità
da affrontare.
Un articolo di Nature dello scorso ottobre enunciava come si è in grado di ottenere in vitro
delle strutture miniaturizzate di diversi organi, come un mini cervello cresciuto in provetta
(che è stato in grado di connettersi autonomamente al midollo spinale e al tessuto
muscolare di un topo). Esso presenta attività fisiologiche simili a quelle che si registrano nel
cervello dei neonati prematuri del settimo/ottavo mese di gravidanza.
Tutto questo ci pone di fronte alla visione riduzionistica, per cui gli esseri umani sono un
composto chimico, così come tutto ciò che ci circonda. -> nelle posizioni riduzionistiche più
estreme, il cervello finisce per apparire solo un fenomeno chimico, regolato dalla fisica, che
la genetica aiuta a definire e la farmacologia a controllare. L’attività del cervello nasce dalla
combinazione di attività elettrica e chimica. In particolare, il comportamento del neurone è
modulato dalla presenza di neurotrasmettitori chimici (come dopamina e serotonina).
Le sensazioni umane sono viste dal riduzionismo come un algoritmo spazio-temporale che
risponde a stimoli elettromagnetici.Tutto ciò che proviamo è ridotto a ‘ioni calcio che
attraversano veloci una membrana, generando sensazioni di rosso, di paura, di rabbia o
d’amore’.
E’ stato dimostrato che anche emozioni e pensieri passeggeri lasciano tracce nel cervello,
poiché il substrato neurale è inseparabilmente connesso alla storia, all’ambiente e
all’esperienza della persona.
Sono diverse le definizioni che sono state date sul cervello: Crick lo definì come un “fascio di
neuroni”, Penrose lo definì come “un computer quantistico attivato da una proteina, la
tubulina, presente nei neuroni e il pensiero sarebbe un ‘collasso’ della funzione d’onda”,
secondo Kurzweil “siamo un pattern, uno schema di materia e di energia che si mantiene nel
tempo”.. e tanti altri definirono il cervello come una macchina di carne, come una nuvola
energetica, chi invece lo definì come una vibrazione coerente di proteine.

Se il pensiero è un fenomeno chimico riprodotto dalla fisica, perché non riprodurlo


artificialmente attraverso l’intelligenza artificiale? Proprio per questa ragione secondo molti
non ha senso chiedersi cosa è il cervello, piuttosto sarebbe meglio chiedersi ‘abbiamo
l’algoritmo giusto per poter riprodurre il cervello?’
Se è vero che il cervello è assimilabile ad una ‘scatola’ che può essere aperta, fino a che
punto può reggere il divieto posto dagli artt.64-188 c.p.p? Tali norme sanciscono il divieto
processuale di utilizzare, anche con il consenso dell’interessato o dell’interrogato “metodi e
tecniche idonei a influire sulla libertà di autodeterminazione, o ad alterare la capacità di
ricordare e valutare i fatti”.
Anche l’art.220 c.p.p. sancisce che “non sono ammesse perizie per stabilire l’abitualità o la
professionalità nel reato, la tendenza a delinquere, il carattere o la personalità dell’imputato
e in genere le qualità psichiche indipendenti da causa patologiche”. -> il fine della norma è
quello di evitare che si crei uno stigma sul soggetto, valutando solo il reato che ha
commesso. Se si procedesse con una indagine neurologica, si procederebbe oltre
l’accertamento del fatto strettamente relativo al reato, investendo il modo di essere
dell’imputato e le azioni a cui lo predispongono i suoi geni e gli impulsi repressi delle sue
sinapsi.
D’altro canto, una indagine neurologica potrebbe essere intesa anche come attenuante:
quando l’esame del soggetto non consente di risalire a geni o impulsi del soggetto che
propendono a commettere un reato, magari un soggetto che in realtà è colpevole viene
assolto.
Inoltre, procedendo con indagine neurologica dell’imputato o dei testimoni, che senso
avrebbe il dibattito processuale? piuttosto di un avvocato, si avrebbe bisogno di un radiologo
che mediante radiografie vede se il soggetto dice o meno la verità.
Per cui le tecnologie mettono in discussione 2 principi fondamentali:
1. Diritto al silenzio = ‘nemo tenetur se detegere’ (una locuzione latina che esprime il
principio in forza del quale nessuno può essere obbligato ad affermare la propria
responsabilità penale, quindi una auto-incriminazione).
2. Violazione della libertà personale = nel senso che bisogna rispondere per le azioni
commesse e non per i pensieri.

Tuttavia, vi sono stati casi in cui, durante un processo, si è fatto ricorso alla tecnologia per
verificare la tendenza alla violenza di un soggetto, la sua capacità a delinquere -> ad es. nel
caso Hinckely si è fatto ricorso alla tomografia assiale computerizzata, nel caso Kinkel alla
tomografia a emissione di fotone singolo..

Al riguardo, l’Esperimento di Libet mette in luce che la decisione di agire del corpo accade
prima della decisione volontaria, cioè decidiamo prima di assumere consapevolezza. Libet,
attraverso l’encefaloelettrografia, scoprì che il cervello dei pazienti esibiva un’attività
particolare e riconoscibile già molti millisecondi prima che la decisione diventasse cosciente;
il cervello agisce prima che la coscienza ne sia informata. -> si tratta di un esperimento a cui
molti avvocati difensori fanno affidamento per ottenere una minor pena.

In diverse circostanze, molte decisioni processuali sono state fondate sulle condizioni
‘genetiche’ del paziente ->es. la sentenza della Corte d’appello di Trieste del 2009 ha tenuto
in considerazione la carenza del gene che codifica l’enzima della monoammino ossidasi A; il
tribunale di Como nel 2011 ha emesso una sentenza in cui si teneva presente l’alterazione
di parti del cervello (difetto di integrità e di funzionalità del cingolato anteriore e dell’insula),
attraverso il ricorso ad elettroencefalogramma, risonanza magnetica e morfometria basata
sui voxel.
Pertanto, le anomalie cerebrali strutturali o le caratteristiche genetiche sono state utilizzate
per stabilire la credibilità del dichiarante.
Così ci troviamo di fronte a sviluppi assolutamente imprevisti e difficilmente determinabili, la
cui applicazione sul diritto potrebbe portare al cambiamento dei meccanismi processuali di
accertamento delle prove e al cambiamento del ruolo del giudice. Se non ha senso punire
un insieme di neuroni, perché dovrebbe aver senso essere giudicati da un insieme di
neuroni (cioè il giudice)?
Il fatto che le tecnologie consentono di rilevare numerose informazioni dal nostro cervello,
riguardanti ad esempio i nostri pensieri, i nostri ricordi, i nostri geni e sinapsi.. pone in rilievo
l’esigenza di costituire un nuovo tipo di privacy, ossia la ‘Privacy cerebrale’ = ossia la
necessità di una autorizzazione consapevole del soggetto sull’uso delle informazioni che lo
riguardano. Si pensi alla possibilità che esami del cervello, originariamente finalizzati ad
ottenere determinate informazioni, finiscano per fornirne altre in grado di essere utilizzate a
detrimento del soggetto dello studio clinico (cd. incidental findings) o comunque risultino
rischiose sotto il profilo emotivo o psicologico. Analoghe problematiche possono porsi anche
nel contesto delle analisi genetiche.
Tutte queste problematiche sono assolutamente indeterminate, perché sono indeterminate
queste tecnologie.
Oggi la nostra società e il nostro agire quotidiano sono permeati da forme di potenziamento:
costituiscono potenziamento gli occhiali che ci permettono di vedere meglio, i vestiti che ci
consentono di proteggerci dal freddo, il vaccino anti-covid19 è una forma di potenziamento
perché ci permette di sviluppare gli anticorpi e quindi non contrarre la malattia; tutta la civiltà
si basa su continui potenziamenti, che costituiscono la base della civiltà e del progresso.
Il problema però si pone quando le forme di potenziamento incidono sulle nostre capacità
neuro psicologiche -> es. l’uso di doping nello sport, che potenzia i rendimenti degli atleti.
Ciò avviene sin da sempre soprattutto in ambito militare, con il fine di costruire dei ‘super
soldati’, che mediante uso di sostanze particolari, avevano la capacità di resistere alla
stanchezza, di ridurre la fame, il dolore, la paura, condizionando anche le loro emozioni,
eliminando le inibizioni, cancellando i ricordi dolorosi e gli scrupoli etici e aumentare le
capacità mnemoniche. Oggi le neuroscienze si occupano proprio dello studio di tali
sostanze.
Il programma di chirurgia refrattiva con il laser messo in atto dalle forza armate americane
su più di mille piloti dell’aeronautica e su oltre 230mila soldati per ottenere una capacità
visiva di 15/10 che consente di vedere una mosca distante nove metri, è legittimo? E anche
al di fuori del contesto militare, l’uso di queste forme di potenziamento è legittimo? L’uso di
queste sostanze e quindi l’aumento delle capacità cognitive dovrebbero consentire al
soldato di restare operativo per 18-20 ore al giorno, 7 giorni a settimana, per periodi
ininterrotti di 12-15 mesi, mantenendo sempre la lucidità e la prontezza dello spirito.

Ma anche in relazione a questo, si pone una questione: il divieto di sostanze stupefacenti o


dell’uso di doping durante una competizione sportiva, limita il diritto all’autodeterminazione di
un soggetto?
In America è accesa la discussione riguardante le anfetamine: così come per le anfetamine,
tutte le sostanze di che incidono sulle capacità psichiche del soggetto sono da considerare
semplici farmaci da banco o vi deve essere una prescrizione medica? qual è la differenza tra
tali sostanze e l’assunzione di 2-3 caffè o di altre sostanze che assumiamo normalmente?
Questo stesso discorso vale anche per i vaccini, perché anche essi sono una forma di
potenziamento.
[Su questo punto occorre brevemente trattenersi, perché esistono posizioni
che chiamano in causa il principio di autodeterminazione per sostenere che se un
atleta, consapevole dei danni che il doping può provocare alla sua salute, decide
di ricorrervi bilanciando i danni di lungo termine coi benefici immediati (anche
economici), dovrebbe essere libero di farlo e quindi il divieto di doping
rappresenterebbe una forma inaccettabile di compressione dell'autonomia
individuale.
La nozione di autonomia cui queste posizioni fanno riferimento non è
evidentemente quella, di origine kantiana, che contempla l’esistenza di “doveri
verso se stessi”, tra i quali rientrano a pieno titolo il dovere di tutelare la propria
salute e di non considerare il proprio corpo come un mero mezzo per raggiungere
un obiettivo: in questo quadro, il doping può essere considerato moralmente
inaccettabile in quanto violazione dei doveri verso se stessi. Tuttavia, anche in una
prospettiva dell’autonomia differente da quella kantiana (ad es., quella della
tradizione liberare che fa riferimento a J. Stuart Mill), si può osservare come il
divieto di doping non si configuri come una compressione dell’autonomia
individuale. Infatti, ogni partecipante alla pratica sportiva accetta liberamente di
sottostare alla regola che vieta il doping in nome della salvaguardia della salute
dei partecipanti. Essendo liberamente accettata, la regola non viola il principio di
autonomia: nessuno è obbligato a prendere parte a una attività della quale non
intende accettare le regole. Inoltre, si deve osservare che proprio il doping
produce effetti limitanti sull'autonomia individuale di chi vi si sottopone: è tipico che
chi ricorre al doping e viene scoperto non si giustifica facendo appello alla sua
autodeterminazione, ma alle pressioni dirette e indirette su di lui esercitate
dall'ambiente circostante, che dunque agiscono come una limitazione della sua
reale possibilità di scelta.
Si può però osservare che è certamente possibile esprimere un giudizio
morale negativo, o quanto meno di "imprudenza", nei confronti di chi mette
consapevolmente a rischio la sua salute in nome di benefici immediati: tuttavia,
non sempre il disvalore connesso a una certa condotta è ragione sufficiente per un
divieto. Vi sono molti noti esempi di condotte moralmente deprecabili o che
comunque mettono a rischio la salute o la vita (il fumo, gli "sport estremi" ecc. ) e
che però non sono legalmente sanzionate: la società, anzi, si fa carico dei costi
aggiuntivi e non discrimina nell'accesso alle cure mediche i comportamenti
imprudenti. Nel caso del doping, tuttavia, questa considerazione non regge: gli effetti
limitativi dell'autonomia individuale e i danni alla salute non riguardano solo
chi si dopa. Ancor più grave è infatti la compressione dell'autodeterminazione degli
altri atleti, che chiama in causa il principio del danno ad altri come ragione perché
la società limiti l'esercizio dell'autodeterminazione individuale 18. Non c'è dubbio
che il ricorso al doping produce danni a carico di chi non vorrebbe ricorrervi, ma si
vede defraudato del diritto a una competizione leale, e potrebbe essere indotto a
ricorrere al doping per evitare di trovarsi in una situazione di inferiorità nella
competizione per la vittoria; e anche danni a carico della società, non tanto - come
s'è detto - per i costi aggiuntivi a carico della spesa sanitaria, ma anche e
soprattutto perché la società investe molto nella promozione della pratica sportiva
e vedrebbe quindi falsata nella sua essenza, o almeno depotenziata, una delle
attività sociali più apprezzate per i valori sociali e morali di cui è portatrice.
Lo sport è un’esperienza sociale e come tale richiede delle regole fondate
su una certa concezione di questa esperienza sociale. La stessa idea
generalmente condivisa che il doping debba essere vietato presuppone che fine
dell’attività sportiva non è esclusivamente il risultato della vittoria ma che il risultato
della vittoria debba essere rapportato ai mezzi con i quali gli atleti si misurano
nelle competizioni. Del resto, una bella gara, un bel gesto atletico, comportamenti
sportivi, fair play costituiscono valutazioni del comportamento degli atleti e della
gara in sé, oltre il semplice risultato. Insomma, non si tratta di imporre dall'esterno
una regola secondo cui l'atleta non può raggiungere il risultato della vittoria con
qualunque mezzo, ma è la sportività stessa a esigere che egli si sforzi di
raggiungerlo nel rispetto di certe regole non estrinseche, ma che per lo più
esprimono la sostanza dell'attività sportiva svolta. Non a caso, del resto, si utilizza
l’espressione “disciplina sportiva”, alludendo appunto a una certa attività sportiva
con le sue proprie regole.
D'altra parte, trattandosi di attività fisica, il principio del rispetto della dignità
umana si traduce in questo ambito in primo luogo come rispetto del corpo proprio
e di quello degli altri, mentre il doping, che sacrifica persino la salute delle persone
che vi fanno ricorso, riduce il corpo a semplice mezzo. Le pressioni economiche e
sociali verso l'uso di sostanze dopanti possono perciò essere viste, sul piano
costituzionale, come ostacoli che impediscono allo sport di continuare a essere
un'attività di sviluppo della persona umana e il divieto del doping si presenta quindi
come una misura minima – cui dovrebbero essere affiancate altre forme di tutela -
rientrante tra i compiti della Repubblica di rimuovere gli ostacoli di ordine
economico e sociale che limitano di fatto libertà e eguaglianza e quindi il pieno
sviluppo della persona umana (art. 3 cost.). In definitiva, non è condivisibile l'idea
che il divieto del doping costituisca, puramente e semplicemente, un’interferenza
nella libertà individuale degli sportivi, essendo piuttosto una regola
necessariamente comune che gli sportivi dovrebbero accogliere quale condizione
per impedire che lo sport degradi a qualcosa d’altro e rimanga invece un’attività
individualmente e socialmente utile.1. Il giudizio sul disvalore etico del ricorso al doping, che
questo documento
intende riaffermare, si basa su un complesso di ragioni, che vanno dalla esigenza
di salvaguardare la salute fisica degli atleti e la loro reale autonomia di scelta ai
valori morali intrinseci nella pratica sportiva e alla conservazione del significato di
questa pratica nell’immaginario collettivo. Sebbene esistano valutazioni
differenziate su quanto questo complesso di ragioni sia in grado di superare il
vaglio di uno scrutinio razionale, non sembra però che le ragioni addotte dalle
posizioni contrarie al divieto di doping siano del tutto convincenti o esenti da limiti.
2. Lo spirito sportivo, in quanto tale, è lo spirito di una competizione in cui si
fronteggiano atleti che, affinando le loro capacità fisiche, riescono con i loro
allenamenti, il loro impegno, la loro intelligenza sportiva e la loro forza di volontà, a
esprimere un aspetto essenziale della nostra comune identità umana, quella del
“merito”, il quale non dipende solo dai doni naturali che ciascuno riceve alla
nascita, ma soprattutto da come ciascuno si impegna a metterli a frutto per
costruire la propria identità (nella fattispecie, la identità di atleta).
3. Il CNB auspica che l’attività di contrasto verso la diffusione del doping venga
rafforzata non soltanto attraverso l’accentuazione dei controlli19 e l’uso di
innovativi strumenti di monitoraggio20, ma anche con l’espansione dell’opera di
informazione e di educazione, in particolare verso il settore giovanile e amatoriale,
cui si rivolge il Codice lanciato dal Consiglio d’Europa. Chiamando in causa la
responsabilità dei governi, delle organizzazioni sportive e delle singole persone
(genitori, insegnanti, allenatori, medici ecc. ), il Codice mira a costruire attorno
all’adolescente una sorta di sfera protetta imperniata sul principio che “chi gioca
lealmente è sempre vincitore” e che quindi nello sport l’aspetto ludico e formativo
dovrebbe prevalere sull’aspetto agonistico e competitivo. L’idea (o almeno la
speranza) è che se i giovani crescono e praticano lo sport entro una sfera così
orientata, matureranno doti di carattere che li renderanno più forti nel resistere alle
pressioni esterne. Forse si può convenire che sul lungo periodo questa è l’unica
possibile strategia vincente, almeno se la società vorrà continuare ad avere lo
sport come aspetto della qualità della vita; ma al contempo non si può non
convenire sulla enormità del compito da eseguire, ma anche sulla sua fragilità,
soprattutto a causa degli effetti retroattivi che il modo attuale di praticare lo sport
comporta e dei modelli che esso propone, anche attraverso i mass media. Per
realizzare l’obiettivo proposto dal Consiglio d’Europa dovremmo fin da subito
mettere in atto tanti e tali cambiamenti, anche di atteggiamenti e di abitudini ormai
inveterate: l'impresa non è facile, ma è indispensabile se la nostra società vorrà continuare
ad annoverare la pratica sportiva tra gli elementi della qualità della vita.]

Anche un trattamento ormonale per rimediare ad un rallentamento della crescita a causa


della sindrome di Turner o di un tumore cerebrale, è legittimo a livello patologico; ma
sarebbe legittimo anche per essere semplicemente più alti senza avere alcuna patologia?
Allo stesso modo, la ricostruzione del seno a causa di una mastectomia è un trattamento
legittimo in presenza di una patologia; ma sarebbe altrettanto legittimo se effettuato per
motivi meramente estetici? E’ possibile fare in modo di segnare una linea di demarcazione
tra patologia e non patologia? C’è una linea di demarcazione tra patologia e potenziamento
(assenza di patologia)?
Si tratta di problematiche indeterminate, in quanto sono indeterminate tutte queste nuove
tecnologie.

Lezione 18 Maggio 2021:


L’esperimento di Libet ha messo in luce che ci sarebbe una frattura di 500 millesimi di
secondi tra azione e consapevolezza dell’azione (per la nostra percezione questa frattura di
500 millesimi di secondi è nulla, neanche ce ne rendiamo conto, ma invece dal punto di vista
scientifico è rilevante).
Questo esperimento mette in luce come sia il cervello a decidere al nostro posto.

L’intelligenza artificiale sta incidendo molto sui diversi profili giuridici: la White paper on
artificial intelligence emanata il 19 febbraio 2020 ha affermato che ‘le caratteristiche
specifiche di molte tecnologie dell’IA, tra cui l’opacità (blackbox effect), la complessità,
l’imprevedibilità e un comportamento parzialmente autonomo, possono rendere difficile
verificare la conformità e può ostacolare l’effettiva applicazione delle norme del diritto
dell’Unione europea vigente, che sono intese a tutelare i diritti fondamentali’. Secondo
alcuni, infatti, è già tempo di prendere delle precauzioni per controllare questo possibile
default: per cui, se esiste anche l’1% di probabilità che si sviluppi la singolarità, sarebbe
ragionevole spendere almeno l’1% del PIL per analizzare il problema e decidere cosa fare.
Nel 2013 l’Union of Concerned scientist (una delle più grandi organizzazioni che si occupano
di rischi esistenziali) ha raccolto circa 20milioni di dollari; nello stesso periodo, solo negli
USA è stata spesa una somma cinquecento volte più grande per la chirurgia estetica, mille
volte più grande per dotare le truppe di aria condizionata, cinquemila volte più grande per
l’acquisto di sigarette e circa 35mila volte più grande per spese militari. -> in tutti questi casi
o si interviene preventivamente oppure si corre il rischio di non poter più intervenire.
Anche se manca una normativa giuridica su tutti questi problemi, negli ultimi anni sono state
emanate una serie di dichiarazioni, sia da parte di imprese pubbliche internazionali, che
private, come ad esmpio:
- l’Opinion of the data ethics commission = elaborata su richiesta della Repubblica
federale di Germania nell’Ottobre 2019, che propone di prevedere 5 categorie di
rischio da cui derivano effetti giuridici diversi:
1. il livello 1, in cui non è ipotizzabile nessun possibile danno, per cui non si
presuppone nessuna misura particolare
2. il livello 2, in cui è ipotizzabile qualche danno, per cui vanno individuati precisi
obblighi di trasparenza, la pubblicazione di una valutazione del rischio,
specifici organi di vigilanza, procedure di controllo ex post, audit
3. il livello 3, in cui sono ipotizzabili regolari e significativi danni in cui, oltre alle
misure precedenti, vanno previste rigide procedure di autorizzazione ex ante.
4. il livello 4, con seri danni potenziali in cui sono necessarie misure
supplementari, quali l’interfaccia diretta con istituzioni di vigilanza per un
monitoraggio diretto e costante
5. il livello 5 relativo alle applicazioni con potenziali danni insostenibili, che
vanno integralmente o parzialmente vietate.
Tutti i vari sistemi di IA sono rimessi al mercato, nel senso che sono affidati al commercio
senza specifici controlli -> ed è per questo motivo che è importante la ‘qualificazione’
giuridica. La qualificazione giuridica è un modo per definire i possibili effetti e fare in modo
che tali effetti siano potenzialmente positivi (cercando di evitare gli effetti negativi). Le
tecnologie dell’intelligenza artificiale ripropongono il problema di pensare ai diritti
fondamentali alla luce delle nuove prospettive che pongono.
Pertanto, quando si parla di IA (ad esempio quando una nuova app viene immessa sul
mercato) bisogna tenere in considerazione sia sviluppi scientifici, sia profili economici, ma
anche la tutela dei diritti fondamentali. Proprio perché sono evidenti sia i rischi che i vantaggi
dell’IA, man mano vi sono sempre più dichiarazioni che si propongono di tutelare i diritti
umani fondamentali (Dichiarazione di Montreal e Dichiarazione di Asilomar, che sono
soggetti privati; oppure Risoluzione del Parlamento europeo del 16 febbraio 2017 recante
raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica; la
Comunicazione della Commissione al Parlamento europeo, in cui è stato affrontato il fatto
che l’Europa deve puntare ad investire sull’intelligenza artificiale e sulle nanotecnologie,
tenendo presente i diritti fondamentali).
In tutte queste dichiarazioni si parla di Algor-Ethical Vision = tale algor ethical vision è stata
elaborata nel 2020 da Pontificia Accademia per la vita (che è l’organismo del vaticano che si
occupa di problemi bioetici), da Microsoft, IBM e Fao, a seguito dell’incontro svoltosi in
Vaticano il 28 febbraio 2020 -> si tratta di una problematica affrontata sia per
l’ambientalismo etico digitale, sia per l’umanesimo digitale, sia per ‘continuare ad essere
umani nel mondo delle macchine’.
Ciò di cui si è discusso è: che cosa dobbiamo fare? che regole dobbiamo darci? La robot
ethics inoltre si è chiesta come programmare i robot? che regole e che autonomia bisogna
dare loro? così come si è parlato di robot regulation, cioè della regolamentazione giuridica
degli effetti della condotta dei robot.
La robot ethics pone questioni rilevanti: ci si chiede se un robot programmato per decidere
autonomamente, sia anche moralmente giusto? Bisogna prevedere quindi anche
determinate forme di responsabilità per tutti i danni prodotti da macchine e programmi di IA.

Una regolamentazione della robotica (robotics regulation) = muove dall’idea che l’oggetto
della disciplina non siano i robot, ma bensì le persone che li progettano, li costruiscono e
interagiscono (deontologia dei programmatori, certificazione del prodotto, controllo
preventivo prima della messa in commercio).

Un diritto dei robot (robot law) = incentrato sui diritti e sui doveri di questi nuovi soggetti
agenti, considerati come entità giuridiche aventi una personalità digitale, una dignità
numerica e una specifica responsabilità.

Bisogna tenere presente i Principi fondamentali riguardanti la dignità umana, responsabilità,


autonomia, giustizia, equità, solidarietà, democrazia, Stato di diritto, affidabilità, sicurezza,
salute, integrità fisica e morale, protezione dei dati e privacy, sostenibilità. Tenendo in
considerazione questi principi fondamentali si risolvono diversi problemi, come la safety-
security (sicurezza individuale), security-safety (pubblica sicurezza), la prevenzione dei
danni, riduzione dei rischi, ripartizione delle responsabilità, governance, trasparenza e
revisioni periodiche.
Casi in cui non si è tenuto presente dei diritti fondamentali, e quindi si sono avuti diversi
problemi sono stati:
- nel 2017, quando è stata ritirata dal commercio la bambola Cayla, perché si è
scoperto che captava i dati degli smartphone presenti in casa
- l’aspirapolvere Roomba che mappava ogni appartamento, trasferendo le informazioni
a Google, Apple e Amazon che li utilizzavano a fini commerciali.

Nick Bostrom nel suo libro “Superintelligenza: tendenze, pericoli e strategia dell’IA” affronta
diversi problemi riguardanti il default tecnologico e i criteri di scelta dei codici etici.
Anche Asimov, in uno dei tanti romanzi che ha scritto, elaborò le cd.‘Leggi di Asimov’ , cioè
3 enunciati, elaborati poco alla volta, introducendo il primo solo nel suo terzo racconto
‘’Bugiardo’’ (e non nei primi due, che sono ‘’Robbie 4’’ e ‘’Essere razionale’’).
- 1° enunciato = Un robot non può recar danno a un essere umano, né può permettere
che, a causa del proprio mancato intervento, un essere umano riceva danno
- 2° enunciato = Un robot deve obbedire agli ordini impartiti agli esseri umani, purché
tali ordini non contravvengono alla Prima legge
- 3° enunciato = Un robot deve proteggere la propria esistenza, purché questa
autodifesa non contrasti con la Prima o la Seconda legge

Se noi dovessimo scrivere un codice di bioetica, i valori da privilegiare sarebbero: l’etica dei
valori, l’etica del prendersi cura, l’utilitarismo, la deontologia, l’etica cristiana, l’etica islamica
(che affronta problemi quali come riuscire a conciliare ad esempio una cura antibiotica, in cui
il farmaco va preso ad una determinata ora, con il ramadan che prevede il digiuno?)l’etica
ubuntu (è un’etica sviluppata in tutte le zone subsahariane).

La Risoluzione del Parlamento europeo propone un significativo modello per garantire l’etica
delle macchine:
- la predisposizione di una ‘carta sulla robotica’ in cui definire i contorni etico-
deontologici per gettare le basi per l’identificazione, il controllo e il rispetto dei principi
etici fondamentali sia nella fase di progettazione, sia nella fase di sviluppo.
- specifici codici etico deontologici per gli ingegneri robotici e per i comitati etici di
ricerca
- il rilascio di particolari licenze per i progettisti e per gli utenti
Per quanto riguarda il problema connesso ai rischi dei sistemi di intelligenza artificiale, la
proposta elaborata dal Parlamento europeo e dal Consiglio afferma che “Per sistema di
intelligenza artificiale (IA system) si intende un software sviluppato con una o più tecniche e
approcci (machine learning, sistemi di apprendimento logici, algoritmi) e in grado, per una
determinata serie di obiettivi definiti dall’uomo , di generare risultati quali contenuti,
previsioni, raccomandazioni, o decisioni che influenzano gli ambienti con cui interagiscono”.
Viene inoltre affrontato il problema della trasparenza: “Le persone fisiche dovrebbero essere
informate che stanno interagendo con un sistema di IA, a meno che ciò non sia evidente
dalle circostanze e dal contesto di utilizzo. Inoltre, le persone fisiche dovrebbero essere
informate quando sono esposte ad un sistema di riconoscimento delle emozioni o a un
sistema di classificazione biometrica”. Questo documento tratta un'intelligenza artificiale
umano centrica: infatti, pone il divieto di sorveglianza di massa, il divieto dei sistemi di social
scoring, il principio del controllo umano significativo, un sistema di certificazione degli
algoritmi impiegati e l’european artificial intelligence board.
A seconda del sistema di identificazione impiegati, è necessaria una preventiva
autorizzazione riguardante sia i dati biometrici, sia il sistema di riconoscimento delle
emozioni, sia il sistema di categorizzazione biometrica:
- per dati biometrici = si intendono dati personali risultanti da un trattamento tecnico
specifico relativo alle caratteristiche fisiche, fisiologiche o comportamentali di una
persona fisica, che consentono o confermano l’identificazione univoca di tale
persona fisica, quali immagini facciali o dati dattiloscopici;
- per sistema di riconoscimento delle emozioni = si intende un sistema di IA al fine di
identificare o dedurre emozioni o intenzioni di persone fisiche sulla base dei loro dati
biometrici;
- per sistema di categorizzazione biometrica = si intende un sistema di IA per
l’assegnazione di persone fisiche a categorie specifiche, quali sesso, età, colore dei
capelli, colore degli occhi, tatuaggi, origine etnica, orientamento sessuale e politico,
sulla base dei loro dati biometrici.
Questa proposta distingue 3 sistemi di identificazione (autorizzati):
1. Un Sistema di identificazione biometrica a distanza = cioè un sistema di IA al fine di
identificare le persone fisiche a distanza mediante il confronto dei dati biometrici di
una persona con i dati biometrici contenuti in una banca dati di riferimento, e senza
che l’utente del sistema di IA sia a conoscenza se la persona sarà presente o potrà
essere identificata;
2. Un Sistema di identificazione biometrica a distanza in tempo reale = cioè un sistema
di identificazione biometrica a distanza in cui l’acquisizione dei dati biometrici, il
confronto e l’identificazione avvengono senza ritardi significativi. Ciò comprende non
solo l’identificazione immediata, ma anche brevi ritardi limitati per evitare l’elusione;
3. Un Sistema di identificazione biometrica a distanza post remoto = cioè un sistema di
identificazione a distanza diverso dal precedente
Tra i sistemi di identificazione non autorizzati vi sono: le attività svolte dalle autorità di
contrasto per la prevenzione, l’indagine, l’accertamento o il perseguimento di reati o
l’esecuzione di sanzioni penali, comprese la salvaguardia e la prevenzione di minacce alla
sicurezza pubblica.
I robot possono essere visti come:
- oggetti
- oggetti con individualità da tutelare
- non oggetti (macchine stupide)
Sono diverse le forme di responsabilità che vengono in rilievo per i robot, e riguardano
diverse figure: il programmatore, costruttore, istruttore, proprietario, fruitore, terzi.
Si parla di:
- Responsabilità civile = in cui i concetti di normale diligenza e di colpa dovranno
essere commisurati agli standard di efficienza del computer -> normalmente la
responsabilità va commisurata in base alla ‘normale diligenza’, cioè alla capacità che
un soggetto ha di reagire a determinati eventi.
es. le macchine a guida autonoma hanno una maggiore capacità di reazione rispetto
agli esseri umani di fronte ad un evento imprevisto, quindi hanno una possibilità di
produrre danni di gran lunga superiore rispetto agli esseri umani. In questo caso, il
concetto di diligenza deve essere rapportato alla diligenza degli esseri umani o a
quella delle macchine?
Per questo motivo la Risoluzione del Parlamento europeo relativa alle norme di diritto civile
sulla robotica non esclude ‘l’istituzione di uno status giuridico specifico per i robot nel lungo
termine, di modo che almeno i robot autonomi più sofisticati possano essere considerati
come persone elettroniche responsabili di risarcire qualsiasi danno da loro causato, nonché
eventualmente il riconoscimento della personalità elettronica dei robot che prendono
decisioni autonome o che interagiscono in modo indipendente con terzi’.
Le diverse forme di soggettività a cui possono essere equiparati i robot sono:
- primati superiori, se si considera il grado diverso della loro sensibilità
- minori e incapaci, se si considerano le limitate capacità cognitive
- detenuti o militari, se si considerano i vincoli che devono rispettare
- schiavi, se si considerano i limiti alla loro autonomia

Uno degli aspetti che si è posto è se può essere configurato un diritto di essere
assistito/curato da un altro essere umano e non da un robot, oppure se è più giusto essere
giudicati durante un esame da un professore vero e proprio o da un sistema di intelligenza
artificiale.

Potrebbero piacerti anche