Sei sulla pagina 1di 11

Robot con intelligenza artificiale,

verso una soggettività giuridica?


Michele Iaselli 21/02/2017

Alla luce della recente approvazione della Risoluzione del Parlamento


europeo del 16 febbraio 2017 recante raccomandazioni alla
Commissione concernenti norme di diritto civile sulla robotica diventa
sempre più attuale e preoccupante il problema connesso all’individuazione
di norme che disciplinino l’attività ed in particolar modo la responsabilità
dei robot nel nostro ordinamento.

L'umanità, ormai, si trova sulla soglia di un'era nella quale robot, bot,
androidi e altre manifestazioni dell'intelligenza artificiale (AI) sembrano
sul punto di lanciare una nuova rivoluzione industriale, suscettibile di
toccare tutti gli strati sociali, rendendo imprescindibile che la legislazione
ne consideri tutte le implicazioni.

Tra il 2010 e il 2014 la crescita media delle vendite di robot era stabile al
17% annuo e che nel 2014 è aumentata al 29%, il più considerevole
aumento annuo mai registrato, e che i fornitori di parti motrici e l'industria
elettrico-elettronica sono i principali propulsori della crescita; che le
richieste di brevetto per le tecnologie robotiche sono triplicate nel corso
dell'ultimo decennio.

La robotica e l'intelligenza artificiale promettono di portare benefici in


termini di efficienza e di risparmio economico non solo in ambito
manifatturiero e commerciale, ma anche in settori quali i trasporti,
l'assistenza medica, l'educazione e l'agricoltura, consentendo di evitare di
esporre esseri umani a condizioni pericolose, come nel caso della pulizia di
siti contaminati da sostanze tossiche.

Naturalmente gli aspetti giuridico-normativi dovranno essere trattati in


maniera approfondita, disciplinando le interazioni fra umani e umanoidi
sia nella sfera privata che in quella pubblica. Sarà necessario analizzare e
risolvere diverse problematiche:

1. di chi è la responsabilità in caso di danni o di infortuni causati da


robot?
2. Come proteggere la privacy degli individui?
3. Come rendere disponibile ed accessibile a tutti l’intelligenza e la
capacità sviluppata da robot al servizio dell’uomo?
4. Che tipologia di assicurazione prevedere per i robot?

Il problema della responsabilità in caso di danni arrecati da robot o


umanoidi può sembrare troppo avveniristico ma in realtà non è così perché
già si stanno producendo robot che presto verranno avviati non solo nel
mondo produttivo ma anche in quello sociale, si pensi ad esempio al
recente prototipo di robot per il condominio (una sorta di portinaio hi-
tech) che è stato recentemente presentato a Pisa, nel convegno sulle
tecnologie al servizio dell’ambiente in cui si vive (Ambient Assisted Living),
organizzato dalla Scuola Superiore Sant’Anna. La Co-Robotics, una spinoff
della Scuola Superiore Sant’Anna ha realizzato anche il prototipo del robot
domestico, una sorta di badante dall’aspetto molto simile a quello
dell’altro. Entrambi sono nati dal progetto Robot Era, del valore
complessivo di 8,7 milioni di euro.
Tutti e due i robot hanno un busto che può essere modificato a seconda
della funzione, parlano e obbediscono ai comandi vocali. In più il robot
domestico ha un braccio e una mano con tre dita. Non ha il cravattino, ma
può comunque essere personalizzato, e ha un maniglione che può aiutare
chi ha difficoltà a camminare. Sa inoltre accorgersi se la persona che è in
casa è caduta e ha bisogno di aiuto e, infine, sa intrattenere con giochi
cognitivi.

Entrambi i robot, che non hanno ancora un nome, sono fatti di un


materiale economico e leggero: la plastica dei cruscotti delle auto. Un
elemento, questo, che facilita la produzione su scala industriale e
l’obiettivo è arrivare a un costo compreso fra 5.000 e 20.000 euro, per i
modelli più complessi. Hanno dato risultati positivi, inoltre, i primi test
condotti in strutture di ricovero fra Italia e Svezia, come la casa di cura San
Lorenzo di Firenze, l’ospedale Inrca di Ancona e una clinica di Orebro. In
strutture come queste i robot potrebbero essere utilizzati per trasportare
lenzuola e coperte, consegnare il cibo ai pazienti, aiutare gli infermieri a
distribuire i farmaci, sostenere le persone che non camminano in modo
autonomo e offrire una supervisione utile per la sicurezza, con un
risparmio notevole sui costi socio-sanitari e miglioramento sostanziale
della qualità dei servizi per gli utenti e della qualità di lavoro per gli
operatori.

E', quindi, evidente che ci si trova di fronte a quella che è una vera e
propria realtà e se al momento questi robot sono dei veri e propri esecutori
materiali di ordini dell'uomo, in seguito, grazie ai notevoli progressi
dell'intelligenza artificiale potranno essere in grado di avere una propria
autonomia decisionale e di essere in grado di discernere tra il bene ed il
male (secondo ovviamente il loro punto di vista). In tal caso effettivamente
il problema di individuare specifiche responsabilità in caso di danni
diventerebbe ancora più difficile.

Inoltre non va dimenticato che ormai sono sempre maggiori


(nell'aeronautica gli esempi sono innumerevoli) i sistemi automatici
contraddistinti da una forte interazione uomo-macchina dove diventa
sempre più sottile la demarcazione tra le competenze dell'uomo e quelle
della macchina. Altra questione molto complessa da risolvere in termini di
responsabilità.

Come giustamente sostiene Jonas bisogna evitare che "sviluppi tecnologici


di volta in volta avviati con obiettivi a breve termine, presentino la
tendenza a rendersi autonomi acquisendo una propria dinamica coattiva
in forza della quale non solo diventano irreversibili, ma acquistano una
funzione propulsiva al punto da trascendere la volontà ed i piani degli
attori."[1]

La stessa Unione Europea sembra ormai consapevole di tali prospettive per


cui proprio di recente è stata approvata dal Parlamento europeo una
Risoluzione del 16 febbraio 2017 recante raccomandazioni alla
Commissione concernenti norme di diritto civile sulla robotica.

La risoluzione parte dalla letteratura, citando Frankenstein, Pigmalione, il


Golem di Praga fino a Karel Capek, lo scrittore ceco, che, come abbiamo
visto, è stato l’inventore della parola robot. Poi passa sul terreno più
concreto dell’economia. Le vendite di automi, impiegati soprattutto nelle
industrie automobilistica ed elettronica, ma anche negli ospedali e
nell'assistenza agli anziani, come si è già avuto modo di rappresentare sono
cresciute nel mondo del 17% all’anno tra il 2010 e il 2014, per fare un balzo
del 29% l’anno scorso. I brevetti nell’ultimo decennio sono triplicati.

La risoluzione suggerisce una sorta di tassa sui robot per rimpolpare il


sistema previdenziale privato di tanti lavoratori umani. Ogni cittadino che
impiega degli automi dovrà segnalarli allo stato, indicando anche quanto
risparmia in contributi grazie alla sostituzione dei lavoratori in carne e
ossa con quelli in acciaio e silicio.

Anche i robot dovranno rispettare le leggi. Prima di tutto quelle di Asimov,


poi un codice di condotta redatto ad hoc da Bruxelles. Qualora un automa
dovesse infrangere una norma o causare un danno a qualcuno, sarebbe
giusto che ne risponda legalmente, soprattutto se dotato di intelligenza
artificiale, di capacità di apprendere autonomamente e – come pure
prevede la bozza di legge – di surclassare l’uomo in quanto a facoltà
intellettive. Una sorta di registro traccerebbe l’identità di tutti i lavoratori
artificiali in Europa, con un obbligo di assicurazione simile a quello
previsto per le auto.

Lo sviluppo della robotica e dell'intelligenza artificiale possono portare a


far sì che gran parte del lavoro attualmente svolto dagli esseri umani sia
svolto da robot, sollevando preoccupazioni non solo sul futuro
dell'occupazione, ma anche in termini di responsabilità.

Difatti per quanto riguarda la sicurezza fisica, ad esempio quando la


codificazione di un robot si rivela fallibile, e per le potenziali conseguenze
di un difetto sistemico o del pirataggio di robot intercollegati o di sistemi
robotici, in un momento in cui sono in uso o sul punto di entrare in uso
applicazioni sempre più autonome, che si tratti di automobili, di droni o di
robot impiegati per l'assistenza o per il mantenimento dell'ordine pubblico.

Grazie agli strabilianti progressi tecnologici dell'ultimo decennio, non solo


oggi i robot sono grado di svolgere attività che tradizionalmente erano
tipicamente ed esclusivamente umane, ma lo sviluppo di caratteristiche
autonome e cognitive – ad esempio la capacità di apprendere
dall'esperienza e di prendere decisioni indipendenti –li ha resi sempre più
simili ad agenti che interagiscono con l'ambiente circostante e sono in
grado di alterarlo in modo significativo; che, in tale contesto, la questione
della responsabilità giuridica derivante dall'azione nociva di un robot
diventa essenziale.

L'autonomia di un robot può essere definita come la capacità di prendere


decisioni e metterle in atto nel mondo esterno, indipendentemente da un
controllo o un'influenza esterna; che tale autonomia è di natura puramente
tecnologica e il suo livello dipende dal grado di complessità con cui è stata
progettata l'interazione di un robot con l'ambiente.

Naturalmente più i robot sono autonomi, meno possono essere considerati


come meri strumenti nelle mani di altri attori (quali il fabbricante, il
proprietario, l'utilizzatore, ecc.); che ciò, a sua volta, rende insufficienti le
regole ordinarie in materia di responsabilità e rende necessarie nuove
regole incentrate sul come una macchina possa essere considerata –
parzialmente o interamente – responsabile per le proprie azioni o
omissioni; che, di conseguenza, diventa sempre più urgente affrontare la
questione fondamentale di uno status giuridico dei robot.

L'autonomia dei robot solleva la questione della loro natura alla luce delle
categorie giuridiche esistenti – se devono essere considerati come persone
fisiche, persone giuridiche, animali o oggetti – o se deve essere creata una
nuova categoria con caratteristiche specifiche proprie e implicazioni per
quanto riguarda l'attribuzione di diritti e doveri, compresa la
responsabilità per i danni. Se cioè devono essere considerati soggetti o
oggetti di diritto.

Fino ad adesso si sono esaminati i casi di responsabilità civile, ma la stessa


problematica potrebbe porsi in caso di reati commessi tramite robot o
umanoidi dove questi ultimi potrebbero non essere considerati
semplicemente degli strumenti, ma, in quanto dotati di un'evoluta
intelligenza artificiale assumere dei livelli di responsabilità più elevati.

Come è noto nel nostro ordinamento vige il principio di soggettività che sta
ad indicare che, per aversi reato, non basta che il soggetto abbia posto in
essere un fatto materiale offensivo, ma occorre altresì che questo gli
appartenga psicologicamente, che sussista cioè non solo un nesso causale
ma anche un nesso psichico tra l’agente ed il fatto criminoso, onde questo
possa considerarsi opera di costui.

E’ chiaro quindi che la responsabilità penale possa imputarsi solo


all’individuo, anche perché, come è noto, la sanzione è la privazione della
libertà personale. Proprio perché la responsabilità penale si configura
dimostrando almeno la colpa, mai potrebbe essere attribuita direttamente
al produttore come potrebbe accadere in caso di danni arrecati a terzi da
robot.

Ma diverse sono le ipotesi di reato che possiamo considerare attraverso


l’utilizzo di robot o automi ed è il caso adesso di procedere ad una breve
disamina.

1. Omicidio commesso da un uomo che utilizza un dispositivo robotico


semplicemente come strumento cioè come arma. In tal caso
ovviamente non si porrebbe alcun problema poiché il reato sarebbe
ascrivibile totalmente all’individuo.
2. Omicidio commesso da un uomo che utilizza il robot come mero
esecutore della propria volontà omicida (nuncius). In tal caso la
questione diventa più complessa poiché già ci troviamo di fronte ad
un robot dotato di un’intelligenza artificiale elevata tale da
comprendere ed eseguire i comandi di un uomo. Che responsabilità
può configurarsi a carico del robot?, E’ in grado di comprendere il
disvalore sociale del fatto criminoso? E’ imputabile?
3. Omicidio commesso da un uomo che intendeva utilizzare il robot solo
per minacciare altri soggetti ed invece il robot non si limita a
minacciare ma uccide. Anche in tal caso si dovrà capire fino a che
punto possa attribuirsi la volontà omicida al robot (intelligenza
artificiale forte e quindi piena autonomia) o se non si sia trattato di un
malfunzionamento. Ed in quest’ultimo caso?

Secondo i sostenitori dell’ intelligenza artificiale forte i computer possono


riprodurre processi intellettuali identici a quelli umani, mentre per i
sostenitori dell’intelligenza artificiale debole le macchine possono soltanto
simulare i processi intellettuali umani.

Naturalmente l’esempio fatto per l’omicidio potrà essere riproposto anche


per altri reati ma indubbiamente si porrà sempre più il problema
dell’incapacità delle norme tradizionali di affrontare la questione della
responsabilità di un robot che diventi sempre più in grado di prendere
decisioni autonome.

La prospettiva finale potrebbe essere quella dell'istituzione di uno status


giuridico specifico per i robot, di modo che almeno i robot autonomi più
sofisticati possano essere considerati come persone elettroniche con diritti
e obblighi specifici.
Tale potrebbe essere il quadro che si verrebbe a delineare quando
l'intelligenza artificiale dovesse superare la capacità intellettuale umana al
punto che, se non saremo preparati, potrebbe mettere a repentaglio la
capacità degli umani di controllare ciò che hanno creato e, di conseguenza,
anche la loro capacità di essere responsabili del proprio destino e garantire
la sopravvivenza della specie.

Ma al fine di avere un quadro più chiaro sulle problematiche emergenti in


tale settore analizziamo le storiche leggi della robotica elaborate nei suoi
racconti da Isaac Asimov che per primo ipotizza la esistenza di macchine
pensanti talmente elaborate da poter adottare decisioni discrezionali,
ragione per la quale era necessario porre dei limiti simulando la morale
umana.

1. Un robot non può recar danno a un essere umano né può permettere


che, a causa del proprio mancato intervento, un essere umano riceva
danno.
2. Un robot deve obbedire agli ordini impartiti dagli esseri umani,
purché tali ordini non contravvengano alla Prima Legge.
3. Un robot deve proteggere la propria esistenza, purché questa
autodifesa non contrasti con la Prima o con la Seconda Legge.

Ora per Asimov, che era uno scienziato, neppure le tre leggi sono perfette
come dimostrano alcuni racconti. Ad esempio una frase sfuggita per errore
(“sparisci”) può essere interpretata in maniera errata e determinare un
esemplare costoso a nascondersi senza possibilità di recupero; o comunque
per determinate attività, come quella del chirurgo, si possono determinare
conflitti insanabili nel caso di terapie sperimentali suscettibili di cagionare
danni se si interviene e di permettere che la malattia diventi letale se non si
interviene.

Vi è un dato che occorre tener presente comunque: la discrezionalità del


robot quale macchina pensante sino a che punto può essere considerata
omologa a quella dell’uomo?

Il robot per quanto riesca a simulare il ragionamento umano resta una


macchina e ciò significa responsabilità del programmatore e/o
dell’utilizzatore.

Il robot segue i percorsi logici impressi nel cervello positronico secondo


una strada comunque delineata da altri (chi lo ha programmato o chi ha
impartito l’ordine). E’ dotato di logica ma manca di quella libertà
decisionale tipica dell’uomo (il libero arbitrio).

Così è paragonabile ad un soggetto che agisce sotto ipnosi o ad un


monomaniaco che ha la capacità di ragionare ma la stessa è compromessa
dalla mania da cui è affetto (paragonabile ad un limite della
programmazione di cui chi impartisce l’ordine può approfittare).

Il caso è previsto dall’articolo 111 codice penale: “Chi ha determinato a


commettere un reato una persona non imputabile, ovvero non punibile a
cagione di una condizione o qualità personale, risponde del reato da
questa commesso, e la pena è aumentata. Se si tratta di delitti per i quali è
previsto l’arresto in flagranza la pena è aumentata da un terzo alla metà.
Se chi ha determinato altri a commettere il reato ne è il genitore esercente
la potestà, la pena è aumentata fino alla metà o, se si tratta di delitti per i
quali è previsto l’arresto in flagranza, da un terzo a due terzi”.

Naturalmente il principio di legalità nel diritto penale non consente di


applicare per analogia la norma al caso in cui il reato sia commesso da un
robot (che non è una “persona”) e quindi è auspicabile che in futuro il
legislatore estenda la previsione della fattispecie ai robot (chi ha
determinato a commettere un reato un robot).

Giova sottolineare che la “imputabilità” è definita dal legislatore (articolo


85 codice penale) come capacità di intendere (ovvero comprendere il
significato delle proprie azioni ed i comandi contenuti nelle norme) e di
volere (ovvero capacità di autodeterminarsi, di scegliere la condotta da
tenere, in base ad un movente personale).

Così il robot, per quanto intelligente, non è imputabile perché resta una
“macchina” costruita da altri, sulla base di moventi altrui. Ciò comporta la
responsabilità di chi l’ha progettata (qualora la progettazione sia stata
dolosamente concepita al fine di consentire la commissione di un reato o
sia stata errata per imprudenza, negligenza e imperizia) o comunque la
responsabilità di chi ha impartito le direttive in base alle quali si è
sviluppata l’azione delittuosa.

Allo stato restano quindi applicabili le regole generali per cui negli esempi,
di cui sopra, in tema di omicidio ai punti 1 e 2 rimane la responsabilità
dell’uomo che ha voluto l’azione delittuosa ed in tal senso ha impartito
ordini alla macchina.

Quanto al punto 3, qualora si accerti che il soggetto intendeva utilizzare il


robot solo per minacciare o cagionare lesioni, ma l’azione del robot ha
determinato la morte occorre procedere secondo le categorie ordinarie del
dolo eventuale e della colpa:

se il soggetto aveva la possibilità di prevedere una reazione ulteriore


del robot ed ha accettato il rischio di un evento più grave si potrà
parlare di dolo eventuale;
se il soggetto ha agito per imprudenza, negligenza o imperizia
nell’impartire l’ordine, allora si avrà colpa.

Ipotizziamo, a questo punto, che in futuro si possano sviluppare tecniche


per consentire al robot di operare scelte in autonomia. Ciò non lo renderà
“persona fisica” essendo comunque frutto di costruzione dell’uomo. Il
tema, quindi, non è quello della intelligenza (che può essere artificiale e
riprodurre i percorsi logici umani) ma è quello della formazione dell’intimo
volere che nell’uomo resta imprevedibile, andando oltre la logica. E nel
caso in cui si programmasse un robot capace di azioni imprevedibili,
qualora il robot commettesse reati per effetto di tale programmazione,
sarebbe sempre ipotizzabile la responsabilità del programmatore (dolosa o
per colpa).

Analizzando la questione sotto altro profilo e volendo creare un laico


parallelismo tra robot ed essere umano si può dire che:
il robot sta al programmatore/utilizzatore come il figlio sta ai genitori;

il robot non è responsabile dei reati ai quali è stato indotto dal suo
programmatore/utilizzatore così come non è responsabile il minore
non imputabile per i reati ai quali è stato indotto dai genitori (ex
articolo 111 codice penale sopra richiamato).

Resta un quesito: il figlio con la maggiore età si affranca dai genitori che lo
hanno generato ma non ne hanno la proprietà, mentre il robot si può
affrancare da chi ne ha la titolarità?

A tal proposito viene in mente il romanzo di Asimov “L’uomo bicentenario”


che narra di un robot talmente perfetto da poter simulare le emozioni
umane; il robot riuscirà ad ottenere la soggettività giuridica dopo la
rinuncia dell’ultima titolare, ma per ottenere la piena e tanto desiderata
equiparazione all’essere umano a cui immagine e somiglianza è stato
creato deve compiere un ultimo passo decisivo: programmare lui stesso la
sua morte.

Sul tema si segnala:

Diritto e nuove tecnologie, Prontuario giuridico-


informatico, a cura di Iaselli Michele, ALTALEX EDITORE, 2016.

(Altalex, 21 febbraio 2017. Articolo di Michele Iaselli)


_______________

[1] H. Jonas, Il principio di responsabilità, Torino, 1979.

Potrebbero piacerti anche