Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
L'umanità, ormai, si trova sulla soglia di un'era nella quale robot, bot,
androidi e altre manifestazioni dell'intelligenza artificiale (AI) sembrano
sul punto di lanciare una nuova rivoluzione industriale, suscettibile di
toccare tutti gli strati sociali, rendendo imprescindibile che la legislazione
ne consideri tutte le implicazioni.
Tra il 2010 e il 2014 la crescita media delle vendite di robot era stabile al
17% annuo e che nel 2014 è aumentata al 29%, il più considerevole
aumento annuo mai registrato, e che i fornitori di parti motrici e l'industria
elettrico-elettronica sono i principali propulsori della crescita; che le
richieste di brevetto per le tecnologie robotiche sono triplicate nel corso
dell'ultimo decennio.
E', quindi, evidente che ci si trova di fronte a quella che è una vera e
propria realtà e se al momento questi robot sono dei veri e propri esecutori
materiali di ordini dell'uomo, in seguito, grazie ai notevoli progressi
dell'intelligenza artificiale potranno essere in grado di avere una propria
autonomia decisionale e di essere in grado di discernere tra il bene ed il
male (secondo ovviamente il loro punto di vista). In tal caso effettivamente
il problema di individuare specifiche responsabilità in caso di danni
diventerebbe ancora più difficile.
L'autonomia dei robot solleva la questione della loro natura alla luce delle
categorie giuridiche esistenti – se devono essere considerati come persone
fisiche, persone giuridiche, animali o oggetti – o se deve essere creata una
nuova categoria con caratteristiche specifiche proprie e implicazioni per
quanto riguarda l'attribuzione di diritti e doveri, compresa la
responsabilità per i danni. Se cioè devono essere considerati soggetti o
oggetti di diritto.
Come è noto nel nostro ordinamento vige il principio di soggettività che sta
ad indicare che, per aversi reato, non basta che il soggetto abbia posto in
essere un fatto materiale offensivo, ma occorre altresì che questo gli
appartenga psicologicamente, che sussista cioè non solo un nesso causale
ma anche un nesso psichico tra l’agente ed il fatto criminoso, onde questo
possa considerarsi opera di costui.
Ora per Asimov, che era uno scienziato, neppure le tre leggi sono perfette
come dimostrano alcuni racconti. Ad esempio una frase sfuggita per errore
(“sparisci”) può essere interpretata in maniera errata e determinare un
esemplare costoso a nascondersi senza possibilità di recupero; o comunque
per determinate attività, come quella del chirurgo, si possono determinare
conflitti insanabili nel caso di terapie sperimentali suscettibili di cagionare
danni se si interviene e di permettere che la malattia diventi letale se non si
interviene.
Così il robot, per quanto intelligente, non è imputabile perché resta una
“macchina” costruita da altri, sulla base di moventi altrui. Ciò comporta la
responsabilità di chi l’ha progettata (qualora la progettazione sia stata
dolosamente concepita al fine di consentire la commissione di un reato o
sia stata errata per imprudenza, negligenza e imperizia) o comunque la
responsabilità di chi ha impartito le direttive in base alle quali si è
sviluppata l’azione delittuosa.
Allo stato restano quindi applicabili le regole generali per cui negli esempi,
di cui sopra, in tema di omicidio ai punti 1 e 2 rimane la responsabilità
dell’uomo che ha voluto l’azione delittuosa ed in tal senso ha impartito
ordini alla macchina.
il robot non è responsabile dei reati ai quali è stato indotto dal suo
programmatore/utilizzatore così come non è responsabile il minore
non imputabile per i reati ai quali è stato indotto dai genitori (ex
articolo 111 codice penale sopra richiamato).
Resta un quesito: il figlio con la maggiore età si affranca dai genitori che lo
hanno generato ma non ne hanno la proprietà, mentre il robot si può
affrancare da chi ne ha la titolarità?