Sei sulla pagina 1di 32

ANNO LXVI - N.

6 PUBBLICAZIONE BIMESTRALE ISSN 0035-6093

RIVISTA
DI DIRITTO
CIVILE
FONDATA E DIRETTA DA

PUBBL. BIMESTRALE - TARIFFA R.O.C.: POSTE ITALIANE S.P.A. - SPED. IN ABB. POST. - D. L. 353/2003 (CONV. IN L. 27/02/2004 N. 46) ART. 1, COMMA 1, DCB MILANO
WALTER BIGIAVI E ALBERTO TRABUCCHI
(1955-1968) (1955-1998)

DIREZIONE
FRANCESCO D. BUSNELLI - GIORGIO CIAN
ANTONIO GAMBARO - NATALINO IRTI
GIUSEPPE B. PORTALE - ANDREA PROTO PISANI
PIETRO RESCIGNO - RODOLFO SACCO
PAOLO SPADA - VINCENZO VARANO
E
GUIDO CALABRESI - ERIK JAYME
DENIS MAZEAUD - ÁNGEL ROJO FERNÁNDEZ-RIO

Novembre-Dicembre
2020
0

edicolaprofessionale.com/RDC
UGO SALANITRO (*)
Prof. ord. dell’Università di Catania

INTELLIGENZA ARTIFICIALE E RESPONSABILITÀ:


LA STRATEGIA DELLA COMMISSIONE EUROPEA

SOMMARIO: 1. Le caratteristiche dell’intelligenza artificiale: self-learnig machines e liability


gap. – 2. La policy dell’Unione europea: responsabilità o soggettività? – 3. La sicurezza
dei prodotti. – 4. Le regole di diritto comune: a) la responsabilità contrattuale. – 5. b)
la responsabilità extracontrattuale. – 6. La responsabilità del produttore e le prospet-
tive di riforma. – 7. Alternative di policy? – 8. La rilevanza delle regole settoriali: self-
driving cars e strict liability. – 9. Compensation fund e allocazione del rischio. – 10.
L’allineamento del Parlamento europeo alla posizione della Commissione.

1. – Lo sviluppo tecnologico legato all’intelligenza artificiale sembra


porre all’interprete problemi inediti, con particolare riguardo alla respon-
sabilità per danni causati dai c.d. robot (1).
Secondo i documenti redatti dalla Commissione europea (2), le nuove
tecnologie si differenziano dai dispositivi convenzionali per una pluralità di
caratteristiche.
Sono complesse, frutto della collaborazione di una pluralità di attori,
sia produttori di beni e di servizi, sia utilizzatori; sono interconnesse e
strutturalmente incomplete, avendo bisogno di costanti aggiornamenti e
di rapportarsi con altri prodotti o servizi per sviluppare integralmente le
potenzialità.

(*) Prodotto del Programma di ricerca di Ateneo UNICT 2020-22 linea 2.


(1) Per un’informazione attuale sui temi dell’intelligenza artificiale e sulle esigenze
regolative, si rinvia alle opere più recenti: ALPA (ed.), Diritto e intelligenza artificiale, Pisa
2020; RUFFOLO (ed.), Intelligenza artificiale. Il diritto, i diritti, l’etica, Milano 2020; AMATO,
Biodiritto 4.0, Intelligenza artificiale e nuove tecnologie, Torino 2020; BARFIELD-PAGALLO
(eds.), Research handbook on the law of artificial intelligence, Cheltenham 2019; LOHSSE-
SCHULZE-STAUDENMAYER (eds.), Liability for artificial intelligence and the Internet of Things,
Baden Baden 2019; GABRIELLI-RUFFOLO (eds.), Intelligenza artificiale e diritto, in G. it., 2019,
p. 1657 ss.; CORRALES-FENWICK-FORGÒ (eds.), Robotics, AI and future of law, Singapore
2018.
(2) Per una prima rassegna RODI, Gli interventi dell’Unione Europea in materia di
intelligenza artificiale e robotica: problemi e prospettive, in ALPA (ed.), Diritto e intelligenza
artificiale, cit., p. 187 ss.

Rivista di diritto civile 6/2020


saggi 1247

La complessità delle tecnologie incide negativamente sulla compren-


sione dei processi in base ai quali è stata presa una determinata “decisione”
e assunto un certo “comportamento”. I processi non soltanto sono opachi
ex post, ma sono anche imprevedibili ex ante, perché disegnati per rispon-
dere, oltre a stimoli predefiniti, a stimoli nuovi, identificati autonomamen-
te dall’algoritmo.
Opacità e imprevedibilità a loro volto dipendono dall’apertura dei
sistemi, i quali si alimentano di dati forniti dall’esterno, mettendone in
luce la vulnerabilità, perché suscettibili di attacchi informatici supportati
da tecnologie ciclicamente aggiornate.
Complessità e incompletezza, opacità e imprevedibilità, apertura e
vulnerabilità: sono tutte caratteristiche che mettono in crisi gli attuali
modelli della responsabilità, in particolare quelli fondati sul criterio di
imputazione della colpa. Crisi che deriva soprattutto dalle difficoltà pro-
batorie che il danneggiato deve affrontare per dimostrare la sussistenza dei
presupposti della responsabilità, con riguardo all’individuazione del re-
sponsabile, l’accertamento della colpa e del nesso causale.
Emergono problemi che l’ordinamento ha già trattato anche in altri
ambiti: si pensi ad esempio ai danni da impianti tecnologici complessi; cosı̀
come ai danni da attività medica, dove alle difficoltà di diagnosi e di
individuazione della terapia si accompagna l’imprevedibilità degli esiti
connessi alle condizioni soggettive del paziente.
Quella che costituisce forse la caratteristica principale della nuova
tecnologia digitale è la capacità di assumere decisioni autonome, conse-
guenti a un processo di adattamento self learning: il dispositivo si con-
fronta con la realtà e si evolve modificando i propri comportamenti e le
proprie decisioni in coerenza con i dati esperienziali acquisiti nel
tempo (3).
Ne discende che non solo i comportamenti e le decisioni dei dispositivi
di ultima generazione sono imprevedibili e non facilmente accertabili (4),
ma soprattutto che i modelli normativi, che meglio si attagliano a risolvere

(3) Sul self learning ZECH, Liability for autonomous systems: tackling specific risks of
modern IT, in LOHSSE-SCHULZE-STAUDENMAYER (eds.), Liability for artificial intelligence, cit.,
p. 187 ss.; anche FIDOTTI, Nuove forme contrattuali nell’era del blockchain e del machine
learning. Profili di responsabilità, in ALPA (ed.), Diritto e intelligenza artificiale, cit., p. 335 ss.
(4) Sui rischi dell’intelligenza artificiale self learning e sulle difficoltà di individuare
rimedi efficaci si vedano: LEMLEY-CASEY, Remedies for robots, in 86 University of Chicago L.
Rev., 2019, p. 1311 ss.; SPINDLER, User liability and strict liability in the Internet of Things
and for robots, in LOHSSE-SCHULZE-STAUDENMAYER (eds.), Liability for artificial intelligence,
cit., p. 125 ss.
1248 rivista di diritto civile 6/2020

il tipo di problemi da loro posti, sono quelli che imputano gli effetti dei
danni causati da esseri senzienti, uomini o animali (5).
È questa la ragione per cui la dottrina, che si è pionieristicamente
occupata del tema, si è divisa tra chi ritiene necessario un adattamento,
in via analogica o attraverso riforme legislative, delle regole sulla respon-
sabilità civile (6) e chi reputa più appropriato il riconoscimento di una
condizione di soggettività direttamente in capo ai dispositivi di intelligenza
artificiale (7).

(5) Tra i tanti, si vedano: REVOLIDIS-DAHI, The peculiare case of the mushroom picking
robot: extracontractual liability in robotics, in CORRALES-FENWICK-FORGÒ (eds.), Robotics, AI
and future of law, cit., p. 57 ss.
(6) In tal senso sono esemplari le analisi – a partire da quella di WAGNER, Robot
liability, cit. – contenute in LOHSSE-SCHULZE-STAUDENMAYER (eds.), Liability for artificial
intelligence, cit., passim.; da ultimo RACHUM-TWAIG, Whose robot is it anyway? Liability
for artificial intelligence based robots, in University of Illinois law review, 2020, p. 1141
ss. Pur riguardando le driverless car, sono di respiro generale il bel saggio di ALBANESE,
La responsabilità civile per i danni da circolazione di veicoli ad elevata automazione, in Europa
e diritto privato, 2019, p. 995 ss., e il contributo, ricco di spunti comparatistici, di F.P.
PATTI, The European road to autonomous vehicles, in 43 Fordham International L. J., 2019, 1,
p. 136 ss.; ma già, in ambiente statunitense, GEISTFELD, A road map for autonomous vehicles:
state tort liability, automobile insurance, and federal safety regulation, in 105 California L.
rev., 2017, p. 1611 ss.
Nella più recente dottrina italiana, si trova un ampio panorama nelle reiterate riflessioni
di RUFFOLO (da ultimo La responsabilità da artificial intelligence, algoritmo e smart product:
per i fondamenti di un diritto dell’intelligenza artificiale self learning, in RUFFOLO (ed.),
Intelligenza artificiale, cit., p. 93 ss.) e negli scritti di: CAPILLI, La responsabilità per la
produzione di robot, in ALPA (ed.), La responsabilità del produttore, Milano 2019, p. 625
ss.; ID., I criteri di interpretazione della responsabilità, in ALPA (ed.), Diritto e intelligenza
artificiale, cit., p. 457 ss.; ID., Responsabilità e robot, in Nuova g. civ. comm., 2019, II, p. 621
ss.; FINOCCHIARO, Intelligenza artificiale e responsabilità, in Contratto e impr., 2020, p. 713
ss.; COSTANZA, L’intelligenza artificiale e gli stilemi della responsabilità civile, in G. it., 2019,
p. 1686 ss.; INFANTINO, La responsabilità per danni algoritmici: prospettive europeo continen-
tali, in Resp. civ., 2019, p. 1762 ss.; FRATTARI, Robotica e responsabilità da algoritmo. Il
processo di produzione dell’intelligenza artificiale, in Contratto e impr., 2020, p. 458 ss.; DI
ROSA, Robot e responsabilità per danni, in BARONE (ed), L’algoritmo pensante, Dalla libertà
dell’uomo all’autonomia dell’intelligenza artificiale, Trapani 2020, p. 85 ss. Meno recenti, ma
ancora di interesse: COPPINI, Robotica e intelligenza artificiale: questioni di responsabilità
civile, in Pol. d., 2018, p. 713 ss.; PALMERINI, Robotica e diritto: suggestioni, intersezioni,
sviluppi a margine di una ricerca europea, in Resp. civ., 2016, 6, p. 172 ss.; BERTOLINI,
Insurance e risk management for robotic devices: identifying the problems, in 16 Global jurist,
2016, 3, p. 291 ss.
(7) Di recente, tra gli altri, si vedano: TEUBNER, Soggetti giuridici digitali? Sullo stato
giuridico degli agenti software autonomi, Napoli 2019, passim; van der Hoven van Genderen,
Do we need to legal personhood in the age of robot and IA?, in CORRALES-FENWICK-FORGÒ
(eds.), Robotics, AI and future of law, cit., p. 15 ss.; cfr. EIDENMÜLLER, The rise of robots and
the law of humans, in 25 ZEuP, 2017, p. 765 ss. La prospettiva è tuttavia risalente: cfr.
SOLUM, Legal personhood for artificial intelligence, in 70 North Carolina L. Rev., 1992, p.
1231 ss.
saggi 1249

2. – Il dibattito si è sviluppato a livello internazionale e ha trovato una


sponda istituzionale nel Parlamento europeo, che il 16 febbraio 2017 ha
approvato una Risoluzione di raccomandazioni alla Commissione “concer-
nenti norme di diritto civile sulla robotica” (8). Raccomandazioni che hanno
trovato risposta sin dalla Comunicazione del 25 aprile 2018 “L’intelligenza
artificiale per l’Europa” (9) – alla quale è allegato uno staff working docu-
ment dedicato a “Liability for emerging digital technologies” (10) – con la
quale la Commissione europea ha rilanciato analisi già elaborate in prece-
denti comunicazioni sulle strategie per il mercato unico digitale. Nel mag-
gio 2019 è stato pubblicato un Report di un gruppo di esperti (11), i cui
risultati sono stati ripresi nel febbraio 2020 nella Relazione della stessa
Commissione “sulle implicazioni dell’intelligenza artificiale, dell’Internet
delle cose e della robotica in materia di sicurezza e responsabilità” (12),
allegato al Libro Bianco “sull’intelligenza artificiale – Un approccio europeo
all’eccellenza e alla fiducia” (13).
Mentre la Risoluzione del Parlamento europeo ha preso in considera-
zione in un primo momento tutte le opzioni (14), ivi compresa quella della
soggettività (15), la Commissione ha preferito concentrare l’attenzione, se-

(8) Risoluzione del Parlamento europeo del 16.2.2017 recante raccomandazioni alla
Commissione concernenti norme di diritto civile sulla robotica (2015/2013 (INL)).
(9) Commissione Europea, COM (2018) 237 final, L’intelligenza artificiale per l’Europa.
(10) Commission Staff, SWD (2018) 237 final, Liability for emerging digital technolo-
gies.
(11) Liability for Artificial Intelligence and other emerging digital technologies, Report
from the Expert Group on Liability and New technologies – New Technologies Formation,
European Union, 2019.
(12) Commissione Europea, COM (2020) 64 final, 16 febbraio 2020, Relazione sulle
implicazioni dell’intelligenza artificiale, dell’Internet delle cose e della robotica in materia di
sicurezza e responsabilità.
(13) Commissione Europea, COM (2020) 65 final, 16 febbraio 2020, Libro bianco
sull’intelligenza artificiale – Un approccio europea all’eccellenza e alla fiducia.
(14) Su proposta della Commissione Giuridica (27 aprile 2020), il Parlamento Europeo
ha presentato il 20 ottobre 2020 una Risoluzione recante raccomandazioni alla Commissione
su un regime di responsabilità civile sull’intelligenza artificiale (2020/2014 (INL)), in cui
abbandona la tesi della soggettività, reputata non necessaria, e accoglie l’impostazione della
Commissione.
Una prospettiva ancora diversa, di sicuro interesse, si trova nel recente studio elaborato
per il Parlamento europeo da BERTOLINI, Artificial intelligence and civil liability, European
Union, 2020.
(15) Invitando la Commissione a esplorare “l’istituzione di uno status giuridico specifico
per i robot nel lungo termine, di modo che almeno i robot autonomi più sofisticati possano
essere considerati come persone elettroniche responsabili di risarcire qualsiasi danno da loro
causato, nonché eventualmente il riconoscimento della personalità elettronica dei robot che
prendono decisioni autonome o che interagiscono in modo indipendente con terzi”: Risoluzio-
1250 rivista di diritto civile 6/2020

guendo il report, sull’adattamento delle regole di sicurezza e di responsa-


bilità.
Gli obiettivi che la Commissione intende perseguire sono improntati a
criteri di efficienza (16): in primo luogo, evitare che l’uso di tecnologie
intelligenti, piuttosto che di ausiliari umani o di tecnologie convenzionali,
possa comportare una diminuzione di sicurezza e di responsabilità (c.d.
equivalenza funzionale); in secondo luogo, allocare nel modo più idoneo, e
cioè sul soggetto che è meglio in grado di minimizzarli, i danni provocati
dalle forme più moderne di intelligenza artificiale.
Obiettivi analoghi si pongono invero anche i sostenitori della sogget-
tività digitale (17).
La migliore dottrina che propone questa soluzione è consapevole che il
problema non deve essere posto in termini naturalistici, ossia non è con-
seguente alla eventuale similitudine dei robot con gli uomini, quanto piut-
tosto è volto alla soluzione dei conflitti di interessi (18). L’estensione della
soggettività giuridica è una scelta normativa volta a individuare nuovi
centri di imputazione, evitando di mettere in tensione il sistema della
responsabilità civile.
In questa prospettiva la soggettività sarebbe collegata alla formazione
di un patrimonio o alla costituzione di un fondo assicurativo dedicato,
vincolando ai conferimenti o ai premi quegli operatori che si ritiene con-
gruo debbano sopportare il rischio: la qualifica di soggetto potrebbe ri-
sultare efficiente nel caso in cui il dispositivo sia un sistema aperto ai
prodotti e ai servizi di altri operatori, potendo superare le difficoltà deri-
vanti dalla frammentazione della produzione per individuare un unico
responsabile (19).
È stato obiettato, tuttavia, che tale impostazione sembra essere soltan-
to una tecnica per imputare indirettamente la responsabilità a una pluralità
di imprenditori e utenti, quelli tenuti ai conferimenti o ai premi assicura-

ne del Parlamento europeo, cit., § 59 f). Sulle reazioni alla proposta di estensione della
soggettività cfr. CAROCCIA, Soggettività giuridica dei robot?, in ALPA (ed.), Diritto e intelli-
genza artificiale, cit., p. 214 ss., p. 226 ss.
(16) Commissione Europea, COM (2020) 64 final, 16 febbraio 2020, Relazione, cit.,
p. 19.
(17) Il tema ha suscitato interesse anche nella dottrina spagnola: v., tra gli altri, ERCILLA
GARCIA, Normas de derecho civil y robótica. Robots inteligentes, personalidad jurı́dica, respon-
sabilidad civil y regulación, Cizur Menor 2018, passim; ROGEL VIDE (ed.), Los robots y el
derecho, Madrid 2018, passim.
(18) TEUBNER, op. cit., passim.
(19) WAGNER, Robot liability, cit., p. 60 s.; la critica è sviluppata in ID., Robot, Inc.:
personhood for autonomous system?, in 88 Fordham L. Rev., 2019, p. 581 ss.
saggi 1251

tivi, attraverso il velo di un nuovo soggetto, mettendo in tensione il sistema


della soggettività e rischiando di incorrere nei problemi tipici della sotto-
capitalizzazione dei patrimoni dedicati (20): osservando al riguardo che il
medesimo problema potrebbe essere risolto con uno sforzo minore adat-
tando le discipline della responsabilità civile.
È evidente che il discorso si pone su un piano tecnico giuridico e non
su un piano etico o naturalistico (21): quindi deve essere risolto valutando
quale sia, tra i diversi strumenti che ha a disposizione l’ordinamento,
quello più appropriato.

3. – Il problema della tutela degli interessi che possono essere lesi dai
dispositivi di intelligenza artificiale deve essere in primo luogo affrontato
attraverso una rivisitazione delle norme di sicurezza.
Si pongono due questioni di particolare importanza.
La prima attiene alla difficoltà di accertare quale sia stata la causa del
danno in situazioni di elevata complessità, al fine di superare i problemi di
opacità del sistema e di pericoli connessi alla sua apertura. La soluzione
suggerita è quella di prevedere l’imposizione di strumenti di registrazione
per quei dispositivi che comportino un elevato grado di rischio, a causa
delle proprie caratteristiche intrinseche e per il potenziale contatto con
interessi di terzi da salvaguardare (22).
La seconda questione si rivolge al tema dei dispositivi self learning,
rispetto ai quali si paventano rischi più o meno elevati a causa della
imprevedibilità delle decisioni che possono assumere durante il corso della
loro vita: rischi che possono aumentare per quei prodotti a tecnologia
aperta che consentono all’utilizzatore di scegliere se utilizzare o no gli
update del fornitore originale o anche quelli di altri produttori (23).
L’ottica in cui si muove la Commissione non sembra essere quella,
suggerita da alcuni studiosi, di sottoporre la produzione di questi dispo-
sitivi a una versione particolarmente rigida del principio di precauzione,
imponendo un meccanismo di blocco di evoluzioni del prodotto in senso

(20) WAGNER, Robot liability, cit., p. 53 ss.; anche SOLAIMAN, Legal personality of robots,
corporations, idols and chimpanzees: a quest for legitimacy, in 25 Artif. Intell. Law, 2017, p.
155; CAROCCIA, Soggettività, cit., p. 226 ss.
(21) “A legal and not a philosophical question”: WAGNER, Robot liability, cit., p. 53;
anche CAROCCIA, Soggettività, cit., p. 242 ss.
(22) Commissione Europea, COM (2020) 64 final, 16 febbraio 2020, Relazione, cit.,
p. 10.
(23) Commissione Europea, COM (2020) 64 final, 16 febbraio 2020, Relazione, cit., p.
7 ss.
1252 rivista di diritto civile 6/2020

dannoso (24). La Commissione, piuttosto, sembra respingere un approccio


massimalista, che potrebbe scoraggiare l’innovazione in un ambito alta-
mente competitivo.
Nell’attuale stato della tecnica, il processo di self learning sarebbe
generalmente circoscritto a un periodo limitato dopo la messa in circola-
zione del prodotto: ne consegue che, secondo la Commissione, i rischi
possono essere gestiti, imponendo al produttore, o comunque al soggetto
che segue il processo di formazione, una nuova valutazione del prodotto
alla fine del processo di apprendimento (25). Più in generale, si ritiene che
il problema debba essere affrontato attraverso l’imposizione di una nuova
verifica successiva alla modifica delle caratteristiche del prodotto, secondo
un modello già adottato nel trasporto ferroviario (26): solo se il processo di
apprendimento avvenisse in modo autonomo e costante, sarebbe necessa-
rio imporre un periodo di monitoraggio e individuare un soggetto respon-
sabile (27).

(24) Cosı̀ da ultimo RUFFOLO, La responsabilità, cit., p. 98, 107 s.


(25) Commissione Europea, COM (2020) 64 final, 16 febbraio 2020, Relazione, cit., p.
8, nota 38, dove è specificato che “Finora l’espressione ‘capace di autoapprendimento’ è stata
utilizzata nell’ambito dell’intelligenza artificiale per lo più per indicare che le macchine sono in
grado di apprendere durante l’addestramento; non è ancora un requisito che le macchine dotate
di intelligenza artificiale continuino ad apprendere anche dopo la loro messa in funzione; al
contrario, in particolare nel settore della salute, le macchine dotate di intelligenza artificiale
cessano normalmente di apprendere dopo che il loro addestramento si è concluso con successo.
Pertanto, per il momento il comportamento autonomo dei sistemi di intelligenza artificiale non
implica che il prodotto svolge compiti non previsti dagli sviluppatori”.
(26) Commissione Europea, COM (2020) 64 final, 16 febbraio 2020, Relazione, cit., p.
8: “In futuro si potranno anche creare situazioni in cui gli esiti dei sistemi di intelligenza
artificiale non potranno essere determinati pienamente in anticipo. In tali situazioni la valu-
tazione del rischio effettuata prima dell’immissione del prodotto sul mercato può non riflettere
più l’uso, il funzionamento o il comportamento del prodotto. In questi casi, nella misura in cui
l’uso previsto, inizialmente progettato dal fabbricante, è modificato a causa del comportamento
autonomo e venga meno la conformità ai requisiti di sicurezza, si potrebbe prevedere l’obbligo
di una nuova valutazione del prodotto capace di autoapprendimento”.
(27) Commissione Europea, COM (2020) 64 final, 16 febbraio 2020, Relazione, cit., p.
8 s.: “La caratteristica dell’autoapprendimento dei prodotti e sistemi di intelligenza artificiale
può consentire alla macchina di prendere decisioni che si discostano da quanto inizialmente
previsto dai fabbricanti e, pertanto, dalle aspettative degli utilizzatori. Questo elemento solleva
interrogativi in merito al controllo umano, in quanto gli esseri umani dovrebbero poter
scegliere se e come delegare le decisioni ai prodotti e ai sistemi di intelligenza artificiale, per
realizzare gli scopi che si sono prefissi. La vigente normativa dell’Unione in materia di sicurezza
dei prodotti non affronta esplicitamente la questione della sorveglianza umana dei prodotti e
dei sistemi dell’intelligenza artificiale capaci di autoapprendimento. … I pertinenti atti nor-
mativi dell’Unione potrebbero prevedere, come misura di salvaguardia, obblighi specifici in
materia di sorveglianza umana, sin dalla progettazione e per tutto il ciclo di vita dei prodotti e
dei sistemi di intelligenza artificiale”.
saggi 1253

L’esigenza di riferire a un unico soggetto il rispetto delle misure di


sicurezza impone una policy di sicurezza rigorosa, che vieti l’accesso a
prodotti non specificamente autorizzati dal fornitore: in particolare, si
prospetta che “potrebbe essere necessario prevedere a carico dei fabbricanti
l’ulteriore obbligo di garantire caratteristiche che impediscano il caricamento
di software avente un impatto sulla sicurezza durante la vita dei prodotti
basati sull’intelligenza artificiale” (28).
Trattasi di soluzioni che possono rivelarsi molto incisive, ma che non
precludono lo sviluppo tecnologico, vietando o delimitando le tecniche di
self learning: si preferisce imporre al produttore obblighi di controllo e
monitoraggio, anche per tutta la durata della vita del prodotto, il cui
ambito di applicazione deve essere ancora determinato in dettaglio, ma
la cui funzione è strettamente connessa con l’estensione delle regole di
responsabilità.

4. – Sotto il profilo della responsabilità, entrano in gioco due aspetti.


Il primo concerne la responsabilità del produttore, che è attualmente
regolato da una direttiva comunitaria di armonizzazione, recepita da tem-
po dalla legislazione dei paesi membri e sulla quale ci soffermeremo nel
sesto paragrafo.
Il secondo è riferito alla responsabilità contrattuale o extracontrattua-
le, che è soggetta alle diverse discipline di rilevanza generale, talvolta
improntate a principi molto distanti tra loro, degli ordinamenti nazionali.
Non si può quindi escludere che vi siano ordinamenti in cui le regole della
responsabilità civile si rivelano già in grado di risolvere, eventualmente con
leggeri adattamenti interpretativi, i problemi dei danni da intelligenza
artificiale (29) e altri ordinamenti dove si richiede l’adozione di riforme
di rilievo tale da porre il problema se non possa essere più conveniente,
per salvare la coerenza del sistema, ricorrere all’estensione della soggetti-
vità giuridica.
Si pensi a un trasporto effettuato da un drone che, per ragioni impre-
vedibili al vettore, arrivi in ritardo, con conseguente danno per il destina-
tario, che non può consegnare le merci tempestivamente a un terzo, per-
dendo un affare vantaggioso: ovvero all’incidente in un ospedale dovuto

(28) Commissione Europea, COM (2020) 64 final, 16 febbraio 2020, Relazione, cit.,
p. 12.
(29) È la tesi sostenuta per l’ordinamento italiano da RUFFOLO, La responsabilità, cit., p.
93 ss.
1254 rivista di diritto civile 6/2020

alla scelta o al comportamento, assolutamente imprevedibile, di un dispo-


sitivo autonomo che pregiudica il paziente.
In questi casi, salvi i problemi del concorso di responsabilità che
solleva il secondo esempio, si pone il problema se il creditore possa essere
in una posizione deteriore, rispetto a quella in cui si sarebbe trovato, ove
un dipendente o un ausiliario avesse eseguito direttamente il trasporto o
l’operazione chirurgica. Nei principali ordinamenti europei, Germania,
Italia o Francia, la responsabilità del debitore per i fatti illeciti commessi
dagli ausiliari è oggettiva (30), nel senso che il debitore risponde del fatto
illecito dell’ausiliario come se l’avesse commesso direttamente, restando
solo da valutare se il fatto dannoso fosse imputabile o no all’ausiliario (31).
Nella misura in cui non sia applicabile la disciplina degli ausiliari,
perché il medico o il fattorino è stato sostituito da un dispositivo intelli-
gente, la responsabilità del vettore o della casa di cura è soggetta alla
disciplina generale dell’inadempimento, che potrebbe consentire di dimo-
strare che il comportamento del dispositivo, per quanto oggettivamente
inappropriato, non è imputabile al debitore, per la sua imprevedibilità e
inevitabilità.
Entra in gioco un problema di interpretazione della portata dell’esi-
mente e di qualificazione della natura della responsabilità contrattuale: per
cui la soluzione potrebbe cambiare, nonostante la sostanziale somiglianza
del dettato normativo, a seconda se si accolga l’interpretazione diffusa
nell’ordinamento tedesco, dove si tende a tenere fermo – anche se in realtà
con ampie eccezioni – un criterio di responsabilità fondato sulla perizia e
la diligenza professionale della prestazione, cioè un criterio di imputazione
fondato sulla colpa presunta (32); ovvero quella dell’ordinamento italiano,
dove si ammette l’interpretazione più rigorosa, secondo la quale vi sareb-
bero obbligazioni, con particolare riguardo a quelle espressione dell’atti-
vità imprenditoriale, del cui inadempimento la struttura risponde a titolo
di responsabilità oggettiva, per cui, per essere esente, dovrebbe dimostrare
che il danno sia stato causato da un fatto espressione di un rischio atipico,
assolutamente estraneo alla sfera del debitore (33).

(30) MARKESINIS-UBERATH-JOHNSTON, The German law of contract. A comparative trea-


tise, Oxford and Portland 2006, p. 362 ss.; C.M. BIANCA, La responsabilità, Diritto civile, vol.
5, Milano 1994, p. 59 ss.
(31) BIANCA, La responsabilità, cit., p. 61 ss.
(32) MARKESINIS-UBERATH-JOHNSTON, The German law of contract, cit., p. 444 ss.;
TEUBNER, Soggetti giuridici digitali, cit., p. 80 s.
(33) È l’interpretazione preferita da P. TRIMARCHI, Il contratto: inadempimento e rimedi,
Milano 2010, p. 11 ss.; di segno opposto la tesi di BIANCA, La responsabilità, cit., p. 11 ss.
saggi 1255

Non è sicuro, tuttavia, che l’accentuazione del rigore della disciplina


della responsabilità contrattuale in termini oggettivi sia necessariamente
una strategia vincente, anche se limitata alle attività imprenditoriali: si
pensi all’aumento dei costi, con il rischio di disincentivo, che deriverebbe
per certe imprese, pur non considerate pericolose, dalla sottoposizione ad
un regime di responsabilità oggettiva. Né è certo che si possa, e sia ragio-
nevole, selezionare in modo adeguato il regime di responsabilità a seconda
se il danno sia stato compiuto da uno strumento che faccia le veci di un
ausiliario oppure no.
Ma ove non si acceda a un regime rigoroso della responsabilità civile,
equivalente a quello per i danni da ausiliari, la diversità di trattamento
potrebbe apparire irragionevole e indurre i clienti a sospettare che l’uso di
tali strumenti al posto degli umani sia funzionale a un alleggerimento della
responsabilità: si avrebbe perciò un abbassamento della fiducia del mer-
cato – come nota la Commissione – che potrebbe ostacolare indirettamen-
te la diffusione di strumenti altrimenti efficienti (34).

5. – La questione si presenta in termini non dissimili nel caso di


responsabilità extracontrattuale.
Si pensi a un dispositivo per l’assistenza agli anziani o per la manu-
tenzione di un immobile che, adottando un comportamento imprevedibile
e inevitabile, frutto di self learning, provochi un incendio e danneggi un
terzo. Anche qui la tutela del soggetto leso potrebbe essere minore rispetto
al caso in cui il danno fosse causato da un uomo, impiegato per la stessa
attività di assistenza o di manutenzione.
Il mutamento si percepisce già nell’ordinamento italiano: l’uomo, la
cui attività ha comportato un danno, sarebbe direttamente responsabile e,
se dipendente di un terzo, risponderebbe anche il datore di lavoro. Il
danno causato dal dispositivo sarebbe invece soggetto a responsabilità
per danno da cose, per cui ne risponderebbe il custode della cosa, il quale
potrebbe però avvalersi del limite del caso fortuito: dal punto di vista del
soggetto leso il proprietario o l’utilizzatore del robot non sarebbe soggetto
alla medesima responsabilità del datore di lavoro dell’assistente umano,
salvo che si accolga il modello interpretativo, discutibile e comunque
discusso, che tende a ricondurre la regola del danno da cose nell’ambito
della responsabilità oggettiva (35).

(34) Commissione Europea, COM (2020) 64 final, 16 febbraio 2020, Relazione, cit., p.
14 s.
(35) Modello interpretativo che è accolto da dottrina autorevole, per la quale ci limi-
1256 rivista di diritto civile 6/2020

La questione si presenta ancora più complessa nell’ordinamento tede-


sco, il quale non conosce una disciplina della responsabilità per danno da
cosa (36): per cui il danneggiato sarebbe costretto a dimostrare la colpa
dell’utilizzatore della cosa nella dinamica dell’illecito, una dimostrazione
più difficile rispetto alla prova richiesta per dimostrare la colpa dell’autore
del danno che abbia il controllo dello strumento dannoso o per la stessa
responsabilità vicaria per un comportamento umano (37). Difficoltà ancora
più esasperata per i dispositivi digitali, dei quali l’utilizzatore non ha un
controllo effettivo, mancando quindi il presupposto per predicare un
comportamento colposo (38).
Né d’altra parte sarebbe agevole estendere all’uso di questi dispositivi
la disciplina per l’esercizio di attività pericolose, che pure è riconosciuta
con diversa ampiezza nell’ordinamento italiano, attraverso la regola gene-
rale dell’art. 2050 c.c. (39), e nell’ordinamento tedesco, attraverso norme
settoriali, tra cui quelle in tema di traffico automobilistico (40). Soprattutto
in un ordinamento come quello tedesco, dove si tende a richiedere una
deroga espressa (41), il tema della coerenza assume una specifica rilevan-
za (42): si può dubitare che l’uso di dispositivi automatici sia, in re ipsa,
ragione di aumento della pericolosità dell’attività (43), salvo in determinati

tiamo a citare: P. TRIMARCHI, La responsabilità civile: atti illeciti, rischio, danno, Milano 2019,
p. 343 ss.; CASTRONOVO, Responsabilità civile, Milano 2018, p. 460 ss.; COMPORTI, Fatti
illeciti: le responsabilità oggettive (artt. 2019 – 2053), in Comm. Schlesinger – Busnelli,
Milano 2009, p. 257 ss.; SALVI, La responsabilità civile, in Tratt. Iudica Zatti, Milano
2019, p. 181 ss.; in senso opposto, BIANCA, La responsabilità, cit., p. 718 ss.; F.P. PATTI,
Il declino della responsabilità oggettiva (a margine dell’art. 2051 c.c.), in questa Rivista, 2019,
p. 977 ss. Si collocano nella prima prospettiva, tra i cultori del tema specifico: RUFFOLO, La
responsabilità, cit., p. 99 ss.; ALBANESE, La responsabilità civile, cit., p. 1011 ss.
(36) WAGNER, Robot liability, cit., p. 49 ss.
(37) Ancorché nell’ordinamento tedesco la responsabilità vicaria extracontrattuale pre-
vede esimenti che non trovano riscontro nella disciplina italiana o francese: MARKESINIS-
BELL-JANSENN, Markesinis’s German law of torts, Chicago 2019, p. 125 s.
(38) Cfr. KARNER, Liability for robotics: current rules, challenges and the need, in LOHSSE-
SCHULZE-STAUDENMAYER (eds.), Liability for artificial intelligence, cit., p. 120, il quale, al
riguardo, riprende la tesi che prospetta l’applicazione (in via analogica) della responsabilità
vicaria nel caso di danno provocato da robot. Tesi che sembra trovare un cauto spazio nel
documento del gruppo di esperti, Liability for artificial intelligence, cit., p. 45 s., ma che non
viene recepita dalla Commissione: Commissione Europea, COM (2020) 64 final, 16 febbraio
2020, Relazione, cit., passim.
(39) Prospetta l’applicabilità dell’art. 2050 c.c. ai danni da robot, RUFFOLO, La respon-
sabilità, cit., p. 109.
(40) WAGNER, Robot liability, cit., p. 51 s.
(41) TEUBNER, Soggetti giuridici digitali, cit., p. 90 s.
(42) Cfr. CASTRONOVO, Responsabilità civile, cit., p. 469 ss.
(43) Il tema è obiettivamente controverso, perché l’attività che faccia uso dei dispositivi
saggi 1257

settori, potendo costituire piuttosto il danno provocato dall’errore del


robot un evento statisticamente di gran lunga meno frequente, a parità
di attività svolta, rispetto a quello derivante dall’errore umano.

6. – Occorre chiedersi piuttosto se l’equivalenza funzionale possa es-


sere conseguita, nonostante l’alleggerimento di responsabilità in capo al
soggetto che avrebbe risposto in caso di illecito umano, aggravando il
regime di responsabilità di altro soggetto.
La questione dello spostamento dell’allocazione del rischio si pone
anche nel caso in cui non sussista un problema di equivalenza funzionale,
perché non vi sarebbe una riduzione della tutela del danneggiato: il tema
della scelta del soggetto sul quale fare ricadere la responsabilità civile resta
comunque strategico (44). Al riguardo, non occorre riprendere i discorsi,
già ampiamente noti tra i cultori dell’analisi economica del diritto, per cui
occorre che ci siano ragioni forti per traslare il danno da un soggetto a un
altro: ragioni che attengono all’incentivazione di comportamenti virtuosi,
attraverso il criterio della colpa, ove questi possano incidere sulla proba-
bilità e sulla gravità del danno, o alla minimizzazione dei costi sociali
attraverso la gestione efficiente delle condizioni di rischio, anche mediante
il ricorso al mercato assicurativo.
Si pone piuttosto il problema se l’alleggerimento della posizione del-
l’utilizzatore (user), del titolare (owner) o del custode (keeper) del dispo-
sitivo digitale sia correlato al venir meno della rilevanza del comportamen-
to di chi utilizza il bene e alla perdita della possibilità di controllare le
condizioni di rischio (45).
La questione si presenta diversa a seconda se il dispositivo costituisca
un sistema chiuso, in cui il produttore dell’hardware non consente l’uso di
software di aziende che non siano specificamente autorizzate, nel qual caso
l’utilizzatore non ha alcun controllo sulle condizioni di rischio del dispo-
sitivo; ovvero un sistema aperto, in cui un certo grado di controllo resta in

intelligenti può essere considerata pericolosa nella misura in cui le interconnessioni tra i
prodotti e i servizi informatici possono provocare rischi sistemici: sulla rilevanza di tali rischi
SPLINDER, User liability, cit., p. 127 s.
(44) Sulla questione KOCH, Product liability 2.0 – Mere update or new version?, in
LOHSSE-SCHULZE-STAUDENMAYER (eds.), Liability for artificial intelligence, cit., p. 110 ss., il
quale pone a confronto la posizione del proprietario e quella del produttore del dispositivo
al fine di valutare quale sia quella sulla quale è più opportuno allocare i rischi. Da ultimo si
veda RACHUM-TWAIG, Whose robot, cit., p. 1171 ss.
(45) In tal senso WAGNER, Robot liability, cit., p. 37 ss.; KARNER, Liability for robotics,
cit., p. 117 ss.
1258 rivista di diritto civile 6/2020

capo all’utilizzatore o al titolare del prodotto, che può modificare le con-


dizioni di rischio accedendo a servizi o prodotti software offerti da altri
imprenditori. Nel sistema chiuso, l’eventuale alleggerimento di responsa-
bilità dell’utilizzatore e del titolare potrebbe trovare compensazione nel-
l’aggravamento della posizione del produttore del dispositivo, da conside-
rare il soggetto maggiormente idoneo alla minimizzazione del rischio, per-
ché in grado di controllarlo integralmente e gestirlo attraverso strumenti
assicurativi o più semplicemente spalmando sul prezzo il costo del rischio.
Assume pertanto rilevanza centrale, anche nella riflessione della Com-
missione europea, la disciplina europea della responsabilità del produtto-
re (46): disciplina rispetto alla quale è controverso se si configuri coerente
con un modello di responsabilità oggettiva – secondo la prospettiva con-
divisa dalla Commissione (47) e diffusa nella dottrina italiana (48) – ovvero
con un modello fault-based – secondo l’opinione prevalente tra molti auto-
revoli studiosi europei (49).
L’Unione europea è già intervenuta in sede vendita di beni di consumo
con la Direttiva UE/2019/771 (e con la sorella UE/2019/770), ritenendo
che il difetto di conformità possa riguardare anche gli elementi digitali
contenuti nel bene: si prevede che gli aggiornamenti dovuti, ove siano
carenti, viziati o installati in modo imperfetto, emergono quali difetto di
conformità. Si prevede altresı̀ che il venditore debba garantire gli aggior-

(46) In tema WAGNER, Robot liability, cit., p. 37 ss.; F.P. PATTI, The European road, cit.,
p. 136 ss.; AMIDEI, Intelligenza artificiale e responsabilità da prodotto, in RUFFOLO (ed.),
Intelligenza artificiale, cit., p. 125 ss.; RACHUM-TWAIG, Whose robot, cit., p. 1154 ss.
(47) Commissione Europea, COM (2020) 64 final, 16 febbraio 2020, Relazione, cit.,
p. 13.
(48) Per tutti ALPA, Introduzione, in ALPA (ed.), La responsabilità del produttore, cit., p.
7 ss.; ma cfr. CASTRONOVO, Responsabilità civile, cit., p. 789 ss., il quale, per tenere ferma la
natura oggettiva della responsabilità, è costretto a interpretare in modo peculiare il riferi-
mento alla nozione di difetto.
(49) In tal senso, con particolare riferimento al difetto di progettazione e di informa-
zione, v.: BRÜGGERMAIER, Tort law in the European Union, Alphen aan dem Rijn 2018, p. 205
s., dove si rileva che la giurisprudenza per determinare il difetto procede in un modo per
certi versi analogo a quello che consente di rilevale la colpa; anche WAGNER, Robot liability,
cit., p. 35 s., per il quale, anche in relazione al difetto di produzione, la disciplina europea
della responsabilità del produttore si può considerare una “watered-down version of negli-
gence liability”. Discorre di “closeness” tra colpa e difetto BORGHETTI, How can artificial
intelligence be defective?, in LOHSSE-SCHULZE-STAUDENMAYER (eds.), Liability for artificial
intelligence, cit., p. 72. Una concezione particolare, per cui la colpa assumerebbe rilevanza
decisiva, trapela in P. TRIMARCHI, La responsabilità civile, cit., p. 415 ss. Un senso diverso va
attribuito al rilievo di chi osserva che molti osservatori non considerano oggettiva la re-
sponsabilità del produttore, perché il produttore, per evitarla, deve soltanto rispettare “the
state of art”: SPINDLER, User liability, cit., p. 129.
saggi 1259

namenti, anche per la sicurezza dei terzi, per assicurare che i beni digitali
restino conformi per il periodo previsto in contratto o per il periodo di
tempo che il consumatore può ragionevolmente attendersi.
La disciplina sulla vendita di beni di consumo ha una portata diversa
da quella della responsabilità del produttore, la quale va oltre il rapporto
tra le parti del contratto: gli obblighi verso l’acquirente del bene, anche se
tarati per la sicurezza dei terzi, non si traducono necessariamente in doveri
nei confronti degli altri consociati.
In ogni caso la riforma della direttiva sulla vendita dimostra l’esistenza
di un gap nel sistema e la necessità di una riforma della direttiva sulla
responsabilità.
In primo luogo si pone un problema di estensione dell’oggetto della
direttiva. La disciplina della responsabilità del produttore si applica ai
prodotti, intesi quali beni mobili (50): non è estesa ai servizi ed è ricorrente
il dubbio se il software sia un prodotto o un servizio (51). Si ritiene che il
produttore dell’hardware risponda dei difetti del software che sia incor-
porato nel prodotto (52): ma è discusso se risponda in quei casi in cui il
software non è incorporato nel prodotto, ma sia collocato altrove (53). Ove
il software fosse considerato un servizio, non sarebbe comunque applica-
bile la disciplina della responsabilità del produttore agli update successivi
alla messa in circolazione del bene (54).
Secondo la Commissione, andrebbe “ulteriormente chiarito” l’ambito
di applicazione della direttiva “per rispecchiare meglio la complessità delle
tecnologie emergenti e garantire che il risarcimento sia sempre possibile per i

(50) In tema WAGNER, Robot liability, cit., p. 41 s.; anche CAPILLI, I criteri, cit., p. 473
ss.; AMIDEI, Intelligenza artificiale, cit., p. 131 ss.
(51) Secondo la Commissione Europea, COM (2020) 64 final, 16 febbraio 2020,
Relazione, cit., p. 15, alcune forme di software sarebbero difficili da classificare come
prodotto, potendo piuttosto essere considerati servizi.
(52) WAGNER, Robot liability, cit., p. 41; BORGHETTI, op. cit., p. 64; KOCH, Product
liability 2.0, cit., p. 105.
(53) In senso estensivo: WAGNER, Robot liability, cit., p. 41 s.; BORGHETTI, op. cit., p. 64;
KOCH, Product liability 2.0, cit., p. 105 s.; anche AMIDEI, Intelligenza artificiale, cit., p. 135 ss.
(54) Nell’ambito della disciplina italiana, secondo la giurisprudenza di legittimità, il
produttore di beni e servizi è responsabile per i danni ai sensi dell’art. 2050 c.c., anche
qualora il danno non derivi dalla produzione del bene o del servizio, ma dalla pericolosità
(dell’uso) del prodotto finale: si tratta di una opinione discutibile, come ben illustrato da A.
FUSARO, Attività pericolose e dintorni. Nuove applicazioni dell’art. 2050 c.c., ora in ALPA (ed.),
La responsabilità del produttore, cit., p. 393 ss.; ma che trova convinti adepti anche sullo
specifico versante dell’intelligenza artificiale, tra i quali RUFFOLO, La responsabilità, cit., p.
111 ss.
1260 rivista di diritto civile 6/2020

danni causati da prodotti difettosi a causa del software o di altre caratteri-


stiche digitali” (55).
Il produttore risponde soltanto per i difetti, del prodotto o di sue
parti, che sussistono prima della messa in circolazione del bene, anche
ove emergano in seguito.
Tra le questioni su cui si sono soffermati i documenti della Commis-
sione europea, vi sono quelle riguardanti l’inversione o l’alleggerimento
dell’onere della prova del difetto, al fine di mitigarne l’insostenibilità per il
danneggiato (56): inversione che si riferisce in particolare ai casi di mancata
installazione delle misure di sicurezza, a quelle in cui manchino le infor-
mazioni per l’indisponibilità di strumenti di registrazione, a quelle in cui vi
sono evidenze tali sulla circostanza che a provocare il danno sia stato il
malfunzionamento di uno dei dispositivi informatici coinvolti (57). Sono
presunzioni la cui rilevanza è ampiamente condivisa dalla migliore dot-
trina (58).
La questione più problematica attiene invece alla nozione di difetto e
al momento in cui rileva (59). Resta controverso come va articolato il cri-
terio perché si possa definire difettoso il bene: il mero fatto che un pro-
dotto abbia causato un danno non significa che abbia un difetto (60).
Secondo l’attuale definizione, che non sembra messa in discussione nei
documenti più recenti dell’Unione europea, un prodotto è difettoso quan-
do non offre la sicurezza che può legittimamente attendersi il pubbli-
co (61): anche questa definizione pone problemi, perché le aspettative

(55) Commissione Europea, COM (2020) 64 final, 16 febbraio 2020, Relazione, cit.,
p. 15.
(56) WAGNER, Robot liability, cit., p. 45 ss.; anche AMIDEI, Intelligenza artificiale, cit., p.
147 ss.
(57) In tal senso è la posizione che emerge da Commissione Europea, COM (2020) 64
final, 16 febbraio 2020, Relazione, cit., p. 16, che rinvia alle proposte tecniche contenute in
Liability for Artificial Intelligence, cit., p. 42 ss., anche 49 ss., 52 ss.
(58) Sul tema dell’onere della prova del difetto: C. AMATO, Product liability and product
security: present and future, in LOHSSE-SCHULZE-STAUDENMAYER (eds.), Liability for artificial
intelligence, cit., p. 79 ss.; per considerazioni di carattere generale, A. FUSARO, Il difetto del
prodotto e la sua dimostrazione: il problema della prova a carico del danneggiato, in ALPA
(ed.), La responsabilità del produttore, cit., p. 425 ss.
(59) Diversamente orientati: WAGNER, Robot liability, cit., p. 42 ss.; BORGHETTI, op. cit.,
p. 63 ss.; ALBANESE, La responsabilità civile, cit., p. 1018 ss.; F.P. PATTI, The european road,
cit., p. 142 ss.; anche AMIDEI, Intelligenza artificiale, cit., p. 138 ss.
(60) BORGHETTI, op. cit., p. 66.
(61) Commissione Europea, COM (2020) 64 final, 16 febbraio 2020, Relazione, cit.,
p. 13.
saggi 1261

del pubblico possono mancare ovvero essere assolutamente illusorie e non


ragionevoli (62).
Per questa ragione, secondo un orientamento diffuso anche nella dot-
trina europea, si possono utilizzare tecniche comparative di analisi rischi –
benefici (risk/utility test), per cui il prodotto è difettoso se i rischi supe-
rano i benefici (63). Analisi che può essere condotta nel confronto tra rischi
e benefici dello stesso prodotto, anche se si rileva che tale analisi può dare
risultati apprezzabili soltanto in particolari casi (ad esempio prodotti far-
maceutici) in cui rischi e benefici sono della medesima natura (64); più
comune è la comparazione con altri prodotti, reali ovvero virtuali. Nel
caso degli algoritmi la comparazione può essere effettuata con altro algo-
ritmo (65), mentre si ritiene che non sia corretta la comparazione con il
comportamento umano: si dubita, infatti, che possa essere rilevante che lo
stesso danno non sarebbe stato prodotto da un dispositivo controllato
dall’uomo, poiché gli algoritmi, pur consentendo una riduzione comples-
siva dei rischi, non sono sempre in grado di evitare rischi che sarebbero
gestibili da un comportamento umano adeguato (66).
Secondo l’opinione prevalente (67), tuttavia, il dettato della direttiva
sulla responsabilità del produttore, imponendo un requisito conformato
all’aspettativa sociale, non consentirebbe di accedere all’analisi rischi –
benefici e alla possibilità di utilizzare criteri di calcolo economico di tipo
comparativo. Si è sostenuto perciò che, anche se il prodotto fosse stati-
sticamente più sicuro per la collettività, il produttore sarebbe comunque
responsabile del danno, se evitabile ove l’attività fosse svolta direttamente
da uno strumento diretto dall’uomo (68).
Anche in questa prospettiva, tuttavia, ove il danno fosse dovuto a un
comportamento anomalo conseguente al processo di self learning, emer-
gerebbe la criticità della nozione di difetto (69). Preliminarmente perché il
difetto si cristallizza al momento della messa in circolazione del prodotto:

(62) WAGNER, Robot liability, cit., p. 42 s.


(63) WAGNER, Robot liability, cit., p. 43 s.; BORGHETTI, op. cit., p. 68.
(64) BORGHETTI, op. cit., p. 68.
(65) BORGHETTI, op. cit., p. 69 ss.
(66) WAGNER, Robot liability, cit., p. 44; BORGHETTI, op. cit., p. 68 s.
(67) BRÜGGENMAIER, Tort law, cit., p. 205.
(68) In questo senso: ALBANESE, La responsabilità civile, cit., p. 1019; F.P. PATTI, The
european road, cit., p. 142 ss.
(69) LOHSSE-SCHULZE-STAUDENMAYER, Liability for artificial intelligence, in LOHSSE-
SCHULZE-STAUDENMAYER (eds.), Liability for artificial intelligence, cit., p. 19; GEISTFELD, A
roadmap, cit., p. 1645 ss.; F.P. PATTI, The european road, cit., p. 147 ss.; CAPILLI, I criteri,
cit., p. 482 s.
1262 rivista di diritto civile 6/2020

per cui la Commissione paventa che possa avere uno spazio più ampio del
solito la “difesa basata sul difetto successivo” (70). Da un prodotto dotato di
un algoritmo self learning ci si aspetta che impari autonomamente intera-
gendo con l’ambiente per migliorare le proprie performance (71), ma non si
possono escludere, applicando il criterio di ragionevolezza (72), deviazioni
comportamentali conseguenti allo stesso processo di apprendimento (73):
perché, per essere rilevante, la deviazione deve essere collegabile con un
difetto sussistente al momento della messa in circolazione del prodotto, ad
esempio una propensione anomala del meccanismo di self learning a pro-
vocare quel tipo di comportamenti dannosi (74).
La nozione di difetto per le anomalie legate ai processi di self learning
pone altre difficoltà, legate alla “difesa basata sui rischi di sviluppo” (state of
art o risk develompment defence) (75) – opzionale a livello europeo, ma in
vigore nell’ordimento italiano – ai sensi della quale va esclusa la qualifica
di difetto per l’anomalia imprevedibile allo stato delle oggettive conoscen-
ze tecnico scientifiche del tempo, al momento della commercializzazione
del prodotto (76).
Appare evidente che le criticità più importanti della disciplina sulla
responsabilità del produttore emergono nella misura in cui si riferisce il
difetto al tempo della messa in circolazione del prodotto: in questo senso
la Commissione propone che, contestualmente all’introduzione di obblighi
di monitoraggio nella disciplina per la sicurezza dei prodotti, si modifichi
la regola della “messa in circolazione” per tenere conto della circostanza

(70) Commissione Europea, COM (2020) 64 final, 16 febbraio 2020, Relazione, cit.,
p. 17.
(71) Cosı̀, senza infingimenti, LEMLEY-CASEY, Remedies for robots, cit., p. 1335 s.
(72) Nella nostra dottrina e giurisprudenza è ricorrente, l’idea secondo la quale un
prodotto sicuro non deve essere un prodotto del tutto innocuo, ma un prodotto per il quale
siano stati rispettati i migliori standard di sicurezza. Cfr., ma si tratta di riflessione in
ambiente di common law, ABBOTT, The reasonable computer: disrupting the paradigma of
tort liability, in 86 George Washington L. Rev., 2018, p. 1 ss.
(73) Esempio illuminante, nell’ambito del trattamento medico, in COMANDÈ, Intelligen-
za artificiale e responsabilità tra liability e accountability. Il carattere trasformativo della IA e il
problema della responsabilità, in Analisi giur. economia, 2019, p. 169 ss.; altri esempi in
LEMLEY-CASEY, Remedies for robots, cit., p. 1312 s., 1336 ss.
(74) Tende a svalutare invece la rilevanza del processo di self learning DI GREGORIO,
Robotica e intelligenza artificiale: profili di r.c. in campo sanitario, in Resp. medica, 2019, p.
433 ss.
(75) Come messo in evidenza in Commissione Europea, COM (2020) 64 final, 16
febbraio 2020, Relazione, cit., p. 17, che poi sembra non tornare più in argomento.
(76) Cfr. F.P. PATTI, The european road, cit., p. 141 s.; CAPILLI, I criteri, cit., p. 481 s.
saggi 1263

che i prodotti possono cambiare e subire modifiche (77). Secondo la Com-


missione, “si tratta di sapere a quali condizioni le caratteristiche di auto-
apprendimento prolungano la responsabilità del produttore e in quale misura
il produttore dovrebbe essere in grado di prevedere alcune modifiche” (78).
Per quel che si può comprendere, la proposta della Commissione non
si limita a prevedere che il produttore, tenuto a monitorare il dispositivo
già in circolazione, debba dimostrare la propria mancanza di colpa nel
caso in cui si sviluppi un’anomalia a seguito del processo di self learning o
per altre ragioni imprevedibili (79). Piuttosto la Commissione propone che
si modifichi la nozione di “messa in circolazione”, spostando questo mo-
mento sino al termine dell’obbligo di monitoraggio o del ciclo di vita del
dispositivo. Ne discende che l’anomalia sopravvenuta, che rende il pro-
dotto non sicuro, può rientrare nel novero dei “difetti” e, se produce
danni, comportare la responsabilità del produttore (80). Responsabilità
che non dipende dalla colpa del produttore, poiché questi ne risponde
anche se prova di avere effettuato il monitoraggio secondo gli standard
professionali e, ciononostante, di non avere scoperto l’anomalia o bloccato
tempestivamente il dispositivo.
Si tenga tuttavia presente che nella più recente relazione della Com-
missione, a differenza che nel precedente report del gruppo di esperti (81),
non si fa riferimento alla necessità che venga meno la esimente “state of
art” o “risk development”: ove si valorizzi questa omissione, si potrebbe
ritenere che la proposta della Commissione si limiti a mantenere la re-
sponsabilità del produttore per i danni provocati da difetti che fossero
individuabili e eliminabili allo stato delle migliori conoscenze tecnico
scientifiche del tempo, ancorché spostando la valutazione delle conoscenze
al momento in cui il difetto ha provocato il danno. La questione dell’ap-
plicabilità dell’esimente a queste anomalie è molto complessa, perché essa
si riferisce soltanto al caso di difetto di progettazione, ma non a difetti di
produzione, ossia a difetti che si riferiscano a singole anomalie di uno

(77) Commissione Europea, COM (2020) 64 final, 16 febbraio 2020, Relazione, cit.,
p. 18.
(78) Commissione Europea, COM (2020) 64 final, 16 febbraio 2020, Relazione, cit.,
p. 17.
(79) Ci troviamo quindi di fronte a una questione diversa da quella della sopravvenuta
conoscenza della pericolosità dopo la messa in circolazione del prodotto, sulla quale si
sofferma CASTRONOVO, Responsabilità civile, cit., p. 812 ss.
(80) Auspicava già una modifica in tal senso parte della dottrina: ALBANESE, La respon-
sabilità civile, cit., p. 1018 s.
(81) Liability for Artificial Intelligence, cit., p. 43.
1264 rivista di diritto civile 6/2020

specifico dispositivo che non ricorrono nella produzione della serie: in


questi casi è irrilevante che il difetto non fosse individuabile, né evitabile,
allo stato delle conoscenze tecnico scientifiche del tempo (82). Nel caso di
algoritmi dotati di capacità di self learning ci troviamo di fronte ad un
fenomeno nuovo, poiché il processo di apprendimento non è detto che
produca le medesime anomalie per tutti i dispositivi della stessa serie (83).
Tuttavia, non so dire con certezza se il difetto possa essere qualificato di
progettazione – come sarebbe se un algoritmo diverso potesse evitare quel
certo tipo di anomalie – ovvero altra categoria di difetto, perché potrebbe
riguardare soltanto un singolo bene. Si può immaginare che dietro questo
dilemma sussisterebbero due forme diverse di difetto: in alcuni casi, rife-
ribili alla progettazione; in altri casi, riferibili al singolo processo di ap-
prendimento. Più propriamente mi sembra emergere una peculiare forma
di difetto – che non può essere condotta con certezza né alla progettazio-
ne, né alla fabbricazione – alla quale non è sicuro si possa applicare la
“state of art defence”: incertezza che si riflette, impedendo l’attribuzione di
un significato univoco, sull’interpretazione del documento della Commis-
sione.
In ogni caso lo spostamento nel tempo del momento in cui si valuta la
sussistenza del difetto, dopo la messa in circolazione del prodotto, pone
già un problema di efficienza della soluzione rispetto al criterio della
minimizzazione dei costi. La responsabilità del produttore per le anomalie
sopravvenute non si pone del tutto in linea con la natura interconnessa dei
prodotti digitali, i quali si presentano sempre bisognosi di update e di
integrazioni, che potrebbero essere forniti da soggetti diversi rispetto al
produttore del dispositivo originario (84). È questa la ragione per cui, come
già illustrato, la Commissione propone che si adottino regole di sicurezza
che impongano ai produttori la progettazione di dispositivi inaccessibili a
operatori esterni: pur essendo vero che tale soluzione, se per un verso
rafforzerebbe il livello di sicurezza, per altro verso potrebbe aumentare

(82) BRÜGGENMAIER, Tort law, cit., p. 216 s.


(83) Non si può escludere che tutti i dispositivi, ad esempio delle selfdriving car, siano
interconnessi e che condividano le esperienze e gli insegnamenti: il rilievo si trova in GEIST-
FELD, A roadmap, cit., p. 1645.
(84) Si osserva che la tendenziale apertura dei sistemi informatici possa consentire a un
soggetto diverso dal produttore del dispositivo di connettere software per migliorare le
performance del prodotto o per risparmiare sui costi, a sua volta riferibili ad altri produttori
e programmatori, rendendo molto difficile l’individuazione della causa del danno: WAGNER,
Robot liability, cit., p. 39 s., 47 s.
saggi 1265

in maniera inefficiente (perché eccessiva) il costo del prodotto, e delle


componenti sostitutive e aggiuntive, nel mercato.
Il rafforzamento della responsabilità del produttore, che deriverebbe
dall’estensione temporale del presupposto del difetto, si pone altresı̀ in
tensione con la rilevanza che può avere la condotta del titolare o del
fruitore del dispositivo, il quale potrebbe ignorare gli avvertimenti del
produttore e non procedere agli aggiornamenti o utilizzare servizi non
idonei: per cui di fronte a un malfunzionamento del dispositivo per un’a-
nomalia sopravvenuta non vi sarebbero ragioni specifiche per ricondurre
la responsabilità al produttore, non avendo questi la posizione che con-
senta una più efficiente minimizzazione dei rischi.
In questa prospettiva, si può interpretare la proposta della Commis-
sione nel modo più equilibrato, tendente a parificare il trattamento dei
dispositivi digitali self-learning agli altri prodotti, spostando il momento in
cui valutare il requisito del difetto, senza intervenire sulla possibilità di
opporre la “state of art defence”: evitando in tale modo di estendere a tutti
i prodotti dell’intelligenza artificiale una regola di responsabilità oggettiva
cosı̀ rigida che si giustificherebbe soltanto qualora l’attività esponga la
collettività a rischi socialmente inaccettabili per la loro frequenza ovvero
per la loro gravità, perché incidenti su valori preminenti quali la vita e la
salute delle persone. Interpretazione che mi pare coerente con la mancan-
za di evidenze empiriche a sostegno dell’idea che il ricorso al dispositivo
digitale comporti di regola un aumento dei rischi o attenti sistematicamen-
te a valori superiori, provocando danni alla vita e alla salute: per cui non si
giustificherebbe un rafforzamento della responsabilità in senso oggettivo,
tale da sovvertire i principi, esteso alla produzione di qualsiasi dispositivo
digitale.

7. – A diversa interpretazione si potrebbe pervenire ove si ritenga che


l’introduzione dei dispositivi di intelligenza artificiale non debba portare
soltanto a un adeguamento della regola della responsabilità del produttore,
funzionale ad assicurare una parità di trattamento con i prodotti analogici,
ma debba spingere oltre la disciplina risarcitoria, al fine di mantenere
l’equivalenza funzionale del complesso delle regole della responsabilità
civile, compensando la riduzione di tutela delle discipline generali.
Come abbiamo illustrato nel quarto e nel quinto paragrafo, sia le
regole della responsabilità contrattuale, sia quelle della responsabilità ex-
tracontrattuale richiedono di essere modificate in modo tale da mettere in
discussione la sistematicità della disciplina generale, in particolare in quegli
ordinamenti dove la responsabilità per colpa mantiene un ruolo pervasivo.
1266 rivista di diritto civile 6/2020

L’eventuale abbassamento del livello di responsabilità del proprietario o


dell’utilizzatore del dispositivo intelligente potrebbe essere compensato dal
rafforzamento della responsabilità del produttore, al quale andrebbe pre-
clusa l’opponibilità della “state of art defence”. Una diversa soluzione
potrebbe affermarsi in quegli ordinamenti, come l’italiano o il francese,
che hanno la possibilità di adattarsi in maniera più agevole rispetto agli
ordinamenti di tradizione germanica, applicando la disciplina del danno
da cosa, pur se al prezzo di accentuare ulteriormente l’incoerenza del
proprio sistema di responsabilità civile (85).
Al riguardo, si potrebbe valorizzare la differenza tra gli ordinamenti
per proporre che il liability gap sia gestito in modo diversificato, in forza
della natura opzionale della “state of art defence”: per cui se ne potrebbe
auspicare la mancata applicazione ai prodotti digitali self learning proprio
in quegli ordinamenti in cui la disciplina generale della responsabilità è
fondata sulla colpa.
In altra prospettiva, si potrebbe sostenere, sul piano dell’efficacia –
negli ordinamenti di tradizione germanica, più che nei nostri – la soluzione
di estendere la soggettività, per individuare direttamente nel dispositivo
che va in default il responsabile, al quale si rimprovera un comportamento
obiettivamente deviato (c.d. colpa oggettiva), senza che occorra la ricerca
del soggetto al quale sia riferibile la creazione del rischio aggiuntivo (par-
ticolarmente rilevante nei dispositivi integrabili da soggetti diversi dal
produttore): anche se possono emergere dubbi sulla fattibilità di un siste-
ma di soggettività delle macchine, che, anche ove si adotti il modello
assicurativo (senza la segregazione di patrimoni ad hoc), richiederebbe
un notevole costo amministrativo per la sua costituzione e gestione, non
giustificabile soprattutto per dispositivi a rapida obsolescenza.

(85) Si pensi alla singolarità della lettura, ormai corrente, per cui il danno da attività
pericolose avrebbe un regime di responsabilità meno rigoroso o comunque equiparabile alla
responsabilità per danno da cose o da animali, almeno in quelle prospettive, già illustrate,
che considerano queste ultimi casi di responsabilità oggettiva. La scarsa coerenza o una vera
e propria contraddizione sono rilevate da autorevole dottrina: SALVI, La responsabilità civile,
cit., p. 184; CASTRONOVO, Responsabilità civile, cit., p. 465 ss., per il quale “paradossalmente,
l’art. 2050 sembra modellato su una regola di responsabilità meno rigorosa di quella dell’art.
2051 c.c.”; nello stesso senso cfr., seppure ad altro fine, P. TRIMARCHI, Rischio e responsa-
bilità oggettiva, Milano 1961, p. 196; ID., La responsabilità civile, cit., p. 345 s., 411. Evidenti
le difficoltà di coordinamento tra le due disposizioni in COMPORTI, Fatti illeciti: le responsa-
bilità oggettive, cit., p. 150 ss. Nel senso che entrambe le discipline vadano equiparate
perché espressione di regole di presunzione di colpa (responsabilità aggravata): BIANCA,
La responsabilità, cit., p. 704 ss.
saggi 1267

Nell’una o nell’altra prospettiva, emerge in modo manifesto il rischio


dell’incongruenza, per cui occorre chiedersi se non possa essere più cor-
retto rinunziare a una rigorosa “equivalenza funzionale” – ove i costi
derivanti dalla tensione del sistema della responsabilità civile o della sog-
gettività fossero eccessivi – tenendo anche presente che l’aumento del
rischio del mancato risarcimento della vittima del danno non appare di
rilevanza tale da mettere in crisi il sistema. L’emersione del gap, in questo
caso, non sarebbe la conseguenza di una politica di restrizione della re-
sponsabilità (86), quanto piuttosto di un temperamento razionale alla mo-
difica rafforzativa della disciplina previgente per i danni causati da intel-
ligenza artificiale: evitando che sia spinta al punto che l’eliminazione del
gap richieda misure, quali la responsabilità del produttore anche per pro-
dotti non difettosi allo stato dell’arte, che possano risultare eccessive e
ingiustificate rispetto a un corretto bilanciamento di rischi e benefici.

8. – Una soluzione come quella illustrata nel sesto paragrafo, se può


essere perseguita per la generalità dei danni derivanti da dispositivi intel-
ligenti, non sarebbe sostenibile invece in quei particolari settori in cui la
gravità o la frequenza dei rischi rendesse socialmente inaccettabile la ri-
duzione dei danni risarcibili (87).
È questa la ragione per cui in determinati settori appare razionale che
si mantengano o rafforzino livelli rigorosi di responsabilità (88), anche qua-
lora non siano allocati secondo i modelli più efficienti di minimizzazione
dei rischi.
Emblematico è il caso della responsabilità per il danno provocato da
un veicolo automatizzato (89).

(86) In linea di principio va censurato il tentativo di creare forme parziali di immunità


da responsabilità quali forma di incentivazione di determinati settori produttivi: per tutti
WAGNER, Robot liability, cit., p. 30 s., che descrive siffatte misure quali forme di indebite
socializzazioni dei costi.
(87) Questa è la prospettiva in cui si pone BORGHETTI, op. cit., p. 72 ss.; una posizione
per certi versi analoga si trova in KOCH, Product liability 2.0, cit., p. 111 ss., in KARNER,
Liability for robotics, cit., p. 122 s. e in SPINDLER, User liability, cit., p. 136 ss.
(88) In tal senso è anche la proposta della Commissione Europea, COM (2020) 64
final, 16 febbraio 2020, Relazione, cit., p. 18 s. Nello stesso senso la Commissione giuridica
del Parlamento europeo, Proposta di risoluzione, cit., p. 7 s., che propone una disciplina di
responsabilità oggettiva per i settori ad alto rischio e una disciplina di responsabilità per
colpa presunta per gli altri settori.
(89) In tema, tra gli scritti più recenti, si vedano: RUFFOLO, Intelligenza artificiale e
automotive: le responsabilità da veicoli self driving e driverless, in RUFFOLO (ed.), Intelligenza
artificiale, cit., p. 153 ss.; AL MUREDEN, Autonomous cars e responsabilità civile tra disciplina
vigente e prospettive de iure condendo, in Contratto e impr., 2019, p. 895 ss.; F.P. PATTI, The
1268 rivista di diritto civile 6/2020

Negli ordinamenti europei la disciplina della circolazione degli auto-


veicoli individua generalmente i soggetti responsabili nel conducente e nel
proprietario. Nell’ordinamento italiano, in particolare, ai sensi dell’art.
2054 c.c., il primo risponde se non dimostra di avere fatto tutto il possibile
per evitare il danno; il secondo risponde non solo in tutti i casi in cui
risponde il primo, ma anche ove il danno derivi da vizio di costruzione o
da difetto di manutenzione.
Questa disciplina è stata tacciata di non essere in linea con le logiche
della gestione ottimale del rischio, poiché l’automobile introduce nella
società un costo che è direttamente correlato all’intensità e alle modalità
della movimentazione del mezzo. A differenza delle cose la cui pericolosità
è strutturale (ad esempio, gli edifici) e in cui si giustifica la conseguente
responsabilità oggettiva del proprietario, la responsabilità per i danni cau-
sati dall’automobile, al pari di ogni altra attività pericolosa (è noto il
rapporto tra 2050 e 2054 c.c.), dovrebbe essere concentrata sul condu-
cente-esercente (90). È in questo senso che la dottrina più avveduta identi-
fica il custode nella disciplina del danno da cosa, distinguendo a seconda
che la cosa richieda un controllo dell’attività o della struttura (91). La
diversa regola corrente, affermata in molti ordinamenti, è giustificata dalla
correlazione tra il regime di assicurazione obbligatoria con la posizione del
proprietario, immediatamente identificabile in forza di un registro pubbli-
co funzionale al trasferimento degli autoveicoli (92).
La diffusione di autoveicoli a guida autonoma potrebbe rendere la
disciplina vigente ancora meno razionale.
È vero che anche nella disciplina sperimentale è previsto che i veicoli
automatizzati non possono circolare in assenza di un conducente, il quale
deve essere in grado di riprendere il controllo del mezzo, e si richiama

european road, cit., p. 125 ss.; A. ALBANESE, La responsabilità civile, cit., p. 995 ss.; DAVOLA-
PARDOLESI, In viaggio con il robot: verso nuovi orizzonti della r.c. auto (driverless)?, in Danno
e resp., 2017, p. 616 ss.; anche ATKINSON, Autonomous cars: a driving force for change in
motor liability and insurance, in 17 Scripted, 2020, p. 125 ss.; CHATZIPANAGIOTIS-LELOUDAS,
Automated vehicles and third-party liability: a European perspective, in University of Illinois
Journal of Law, Tech. and Policy, 2020, p. 1; CERINI-PISANI TEDESCO (eds.), Smart mobility,
smart cars e intelligenza artificiale: responsabilità e prospettive, Torino 2019; VOTANO, La
responsabilità da circolazione stradale nella fase di transizione dai veicoli tradizionali alle auto
a guida automatica, in Danno e resp., 2019, p. 330 ss.; PELLEGATTA, Automazione nel settore
automotive: profili di responsabilità civile, in Contratto e impr., 2019, p. 1418 ss.; GAETA,
Automazione e responsabilità civile automobilistica, in Resp. civ., 2016, 5, p. 1717 ss.
(90) TRIMARCHI, Rischio e responsabilità oggettiva, cit., p. 253 ss.
(91) TRIMARCHI, Rischio e responsabilità oggettiva, cit., p. 254 ss.
(92) TRIMARCHI, Rischio e responsabilità oggettiva, cit., p. 254.
saggi 1269

l’applicazione delle regole generali e dell’assicurazione obbligatoria (93).


Ma il modello entra in crisi, perché il conducente non è più nella posizione
di pieno controllo del rischio (94) e tantomeno lo sarà con il passaggio alle
categorie di maggiore automazione (95): né tale posizione di controllo del
rischio, per le ragioni già illustrate, è mai stata pienamente collegabile con
la figura in senso stretto del proprietario (96).
Resta tuttavia l’esigenza di mantenere un regime di responsabilità og-
gettiva, giustificato quantomeno dalla gravità dei rischi, essendo in pericolo
la vita e la salute delle persone. In questa prospettiva è ampiamente condi-
visa l’idea che, ancorché si abbandoni la responsabilità aggravata del con-
ducente, si debba tenere ferma la restante disciplina (97), fondata sulla re-
sponsabilità oggettiva del proprietario, sul registro automobilistico e sul
connesso sistema di assicurazione (98). Soluzione che è ritenuta addirittura
auspicabile da chi osserva che l’entrata in vigore della disciplina della re-
sponsabilità del produttore abbia consentito di ricondurre a coerenza il
sistema, ammettendo il regresso del proprietario – che, anche quale custode
ai sensi dell’art. 2051 c.c., abbia risposto per i danni al terzo – verso il
produttore, quale soggetto responsabile dei difetti dell’autoveicolo (99).

(93) AL MUREDEN, Autonomous cars, cit., p. 913 ss. Si tenga presente che l’attuale disci-
plina italiana per la guida automatica, introdotta dal d.m. 28 febbraio 2018, riprende sostan-
zialmente l’assetto normativo previgente: AL MUREDEN , Autonomous cars, cit., p. 916 s.
(94) Anche se un certo ruolo non può negarsi per i livelli di automazione più bassa: sul
punto ampia riflessione in ALBANESE, La responsabilità civile, cit., p. 1001 ss.; AL MUREDEN,
Autonomous cars, cit., p. 913 ss.; al periodo di transizione nell’ordinamento statunitense è
dedicato il saggio di HRESKO PEARL, Hands on the wheel: a call for greater regulation of semi-
autonomous car, in 93 Indiana law journal, 2018, 3, p. 713 ss.
(95) WAGNER, Robot liability, cit., p. 37 ss.; DAVOLA-PARDOLESI, op. cit., p. 620; ALBA-
NESE, La responsabilità civile, cit., p. 1000 s.; F.P. PATTI, The European road, cit., p. 150;
ABRAHAM-RABIN, Automated vehicles and manufacturer responsability for accidents: a new
legal regim for a new era, in 105 Virginia law review, 2019, 1, p. 127 ss., 145. Per un’ampia
analisi, riferita all’ordinamento statunitense, sul ruolo del conducente nei veicoli totalmente
automatizzati: HRESKO PEARL, Fast & furious: the misregulation of driverless cars, in 73 New
York University annual survay of american law, 2017, 1, p. 19 ss.
(96) Cfr. CASTRONOVO, Responsabilità civile, cit., p. 759; DAVOLA-PARDOLESI, op. cit., p.
620; ABRAHAM-RABIN, Automated vehicles, cit., p. 153.
(97) Non a caso è a questa figura che si ricollega la responsabilità nella più recente
legislazione francese, tedesca e inglese sulle driverless cars: F.P. PATTI, The European road,
cit., p. 132 ss., 152 ss., il quale arriva a sostenere che tale soluzione sarebbe ottimale nella
fase di transizione anche perché spingerebbe i proprietari ad indirizzarsi verso le nuove
autovetture, i cui costi assicurativi sarebbero di gran lunga minori.
(98) Nega che in molti ordinamenti sarebbe necessario modificare la legislazione esi-
stente BORGHETTI, op. cit., p. 74; nello stesso senso WAGNER, Robot liability, cit., p. 51 s., per
il quale sarebbe “foolish” abbandonare un “well-oiled” sistema di responsabilità e assicura-
zione.
(99) ALBANESE, La responsabilità civile, cit., p. 1004 ss., 1014 ss.
1270 rivista di diritto civile 6/2020

È controverso invece se sia opportuno, a fronte dell’obsolescenza delle


regole poste dall’art. 2054 c.c., aumentare il livello di responsabilità del
produttore del veicolo automatizzato (100). Aumento di responsabilità che
non appare sostenibile supponendo che il fabbricante possa rivestire una
posizione sostitutiva di quella del conducente, in quanto, nei veicoli inte-
gralmente automatizzati, neanche il fabbricante ha alcuna possibilità di
controllo del mezzo (101). Né appare certo che l’aumento di responsabilità
possa essere connesso con la posizione del produttore quale unico sogget-
to che può minimizzare il rischio in maniera efficiente: tesi sostenuta da chi
rileva che allo stato – ma il dato non è univoco – le driverless car sarebbero
dispositivi chiusi, non accessibili a software di altro produttore, la cui
sicurezza può essere controllata esclusivamente dal produttore (102).
Una diversa prospettiva, rispetto al rafforzamento della responsabilità
del produttore (103), è coltivata invece da chi configura il mondo delle
driverless car aperto ad altri protagonisti, che si troverebbero nella posi-
zione migliore per il controllo del sistema informatico della circolazio-
ne (104). In quest’ultimo senso mi pare che si spiegano le proposte della
Commissione (105), le quali a loro volta richiamano l’analisi tecnica del
2019 (106): il documento dell’Expert Group spinge per l’applicazione di
un regime di responsabilità oggettiva, nel settore delle driverless car, in-
centrata sulla figura dell’operator. Non si esclude che abbia rilievo la

(100) Nella dottrina italiana ritengono congruo che il produttore di driverless car di-
venga maggiormente responsabile: F.P. PATTI, The european road, cit., p. 136 ss., 141 ss.,
156 ss., 158 ss.; RUFFOLO, Intelligenza artificiale e automotive, cit., p. 159 ss. Propongono
una regola di strict liability per i produttori, seppure attraverso la mediazione di un fondo,
che superi il modello vigente basato sul difetto, ABRAHAM-RABIN, Automated vehicles, cit., p.
153 ss. Nel senso che la riduzione dei doveri del conducente comporti un aumento dei
doveri del produttore, per riferimenti in common law: PYMAN, The liability blind spot: civil
liability blurred vision of conditional automated vehicles, in 92 Australian law journal, 2018,
4, p. 293 ss.; ROE, Who’s driving that car?: an analisys of regulatory and potential liability
frameworks for driverless cars, in 60 Boston College L. R., 2019, p. 315 ss.
(101) WAGNER, Robot liability, cit., p. 37 ss.
(102) Cosı̀ WAGNER, Robot liability, cit., p. 51.
(103) Assumono la centralità della figura del produttore, anche: AL MUREDEN, Auto-
nomous cars, cit., p. 917 ss.; DAVOLA-PARDOLESI, op. cit., p. 624 ss.
(104) La prospettiva più articolata e corretta si trova in KOCH, Product liability 2.0, cit.,
101 ss., secondo il quale vi sono comunque una pluralità di soggetti coinvolti nella rete di
connessioni su cui circolano le driverless car; nello stesso senso cfr. LOHSSE-SCHULZE-STAU-
DENMAYER, Liability for artificial intelligence, in LOHSSE-SCHULZE-STAUDENMAYER (eds.), Lia-
bility for artificial intelligence, cit., p. 19 s.
(105) Commissione Europea, COM (2020) 64 final, 16 febbraio 2020, Relazione, cit., p.
18 s.
(106) Liability for Artificial Intelligence, cit., p. 39 ss.
saggi 1271

posizione del fronted – operator, al quale si riconduce la figura dell’utiliz-


zatore – o se si preferisce del custode dell’automobile – quale soggetto che
controlla una parte del rischio, perché decide quando, dove e perché la
tecnologia deve essere usata, e che beneficia direttamente dell’uso del
mezzo (107). Tale figura, tuttavia, non si pone a confronto, al fine di ac-
certare chi sia nella condizione migliore per gestire il rischio, con la posi-
zione del produttore, pur essendo considerato quest’ultimo un soggetto
che può efficacemente ridurre i costi sociali intervenendo sulla sicurezza
del prodotto. Il confronto invece si sviluppa con il backend – operator,
figura che indica il provider, il quale gestisce i sistemi di controllo del
traffico, individuando le condizioni di rischio e provvedendo a fornire i
servizi di supporto alla circolazione, e si avvantaggia dall’operazione, per-
ché i suoi profitti sono tendenzialmente connessi con la durata, la natura e
l’intensità dell’attività. Provider che può anche essere un produttore di
driverless car o un proprietario di flotte di autoveicoli, pur non trattandosi
di posizioni che debbono necessariamente coincidere (108) .
La Commissione non sembra proporre, quindi, la trasformazione della
responsabilità del produttore di driverless car in un regime di strict liability
in senso forte: preferisce piuttosto accostare, alla responsabilità del pro-
duttore (riformata nei termini descritti nel sesto paragrafo), una nuova
regola di responsabilità oggettiva che coinvolge l’operator, da individuare
in primo luogo nel provider che garantisce la circolazione (che potrebbe
anche coincidere con il produttore), nonché in colui nei cui confronti è
imposto l’obbligo di registrazione della driverless car (109). Resta aperta
l’identificazione di quest’ultimo soggetto: perché potrebbe essere ragione-
vole che fosse il produttore o il provider; ma non si può escludere che
continui a essere il proprietario, in coerenza con il sistema attuale e con la
circostanza che potrebbe essere colui su cui comunque il produttore o il
provider, nell’ipotesi alternativa, finiscano per riversare i costi assicurativi
attraverso l’aumento del prezzo di acquisto dell’auto o dei servizi connessi
alla circolazione (110).

(107) Liability for Artificial Intelligence, cit., p. 40 s.


(108) Liability for Artificial Intelligence, cit., p. 40 s.
(109) Liability for Artificial Intelligence, cit., p. 42.
(110) In questo senso si pone il Parlamento europeo, Risoluzione ult. cit., § 11 ss., nella
parte in cui individua quale soggetto responsabile l’operator, da considerare alla stregua di
un custode di cosa, secondo il modello franco-italiano: critica nei confronti di siffatta
prospettiva, A. FUSARO, Quale modello di responsabilità per la robotica avanzata? Conside-
razioni a margine di un percorso europeo, in corso di pubblicazione su Nuova g. civ. comm.
(letto per la cortesia dell’A.).
1272 rivista di diritto civile 6/2020

9. – Le diverse soluzioni, che sono state prospettate per i settori


dell’intelligenza artificiale a più alto rischio, tendono a rafforzare la disci-
plina della responsabilità civile, adottando regole di strict liability, e indi-
viduando il responsabile in quel soggetto – custode/proprietario, provider
o produttore – che si ritiene essere nella posizione migliore per gestire il
rischio, anche attraverso il collegamento con il mercato delle assicurazioni.
L’azione di regresso del proprietario o del provider nei confronti del pro-
duttore garantisce, comunque, nei limiti della rilevanza del difetto, uno
sforzo adeguato per il miglioramento della sicurezza dei prodotti; cosi
come la responsabilità del provider e/o del titolare tende a incentivare la
corretta manutenzione e gestione della rete e dell’autoveicolo.
È stato tuttavia sostenuto che vi sono danni, provocati da errori ine-
vitabili ma calcolabili a priori, che non appare ragionevole né lasciare sulla
vittima, né trasferire sull’operator o sul produttore, e che andrebbero
gestiti attraverso una socializzazione dei costi mediante fondi sovvenzionati
da contributi provenienti da diverse fonti (111). L’idea, pur prospettata
nella Risoluzione del Parlamento Europeo (112), non è stata valorizzata
nel Report dell’Expert Group (113) e non ha trovato spazio nel documento
della Commissione.
Il ricorso a questo istituto nasconde due prospettive.
In una prima versione, la socializzazione dei costi avrebbe la funzione
di evitare che produttori e provider siano costretti a rispondere di danni,
che non sarebbero comunque in grado di evitare, trasferendo il costo della
responsabilità sul prezzo di mercato di beni e di servizi: il conseguente

(111) In tema BORGES, New liability concepts: the potential of insurance and compensa-
tion funds, in LOHSSE-SCHULZE-STAUDENMAYER (eds.), Liability for artificial intelligence, cit.,
p. 145 ss., 159 ss.
(112) Risoluzione del Parlamento europeo, cit., § 59, in cui si invita la Commissione a
valutare “b) la costituzione di un fondo di risarcimento non solo per garantire il risarcimento
quando il danno causato dal robot non è assicurato; c) la possibilità per il produttore, il
programmatore, il proprietario o l’utente di beneficiare di una responsabilità limitata qualora
costituiscano un fondo di risarcimento (…); d) la scelta tra la creazione di un fondo generale
per tutti i robot autonomi intelligenti o di un fondo individuale per ogni categoria di robot e
tra il versamento di un contributo una tantum all’immissione sul mercato di un robot o
versamenti regolari durante la vita del robot; e) l’istituzione di un numero di immatricolazione
individuale iscritto in un registro specifico dell’unione, in modo da associare in modo evidente
il robot al suo fondo, onde consentire a chiunque interagisca con il robot di essere informato
sulla natura del fondo, sui limiti della responsabilità in caso di danno alle cose, sui nomi e sulle
funzioni dei contributori e su tutte le altre informazioni pertinenti”.
(113) Liability for Artificial Intelligence, cit., p. 62 s., la cui posizione è cosı̀ sintetizzata:
“Compensation funds may be used to protect tort victims who are entitled to compensation
according to the applicable liability rules, but whose claims cannot be satisfied”.
saggi 1273

aumento dei prezzi di mercato – si paventa – potrebbe avere un effetto


dissuasivo sul potenziale acquirente, rallentando il tasso di sostituzione
dello strumento tradizionale a guida umana con dispositivi di intelligenza
artificiale, pur essendo questi ultimi più efficienti e complessivamente
sicuri. Si tratta di tesi che sono state articolate soprattutto nel settore
dei dispositivi medici (114), ma che potrebbero valere anche per le driver-
less car (115).
Si tratta di una prospettiva che, seppur suggestiva, non mi convince.
Va osservato che, in quegli ambiti in cui è prevista l’assicurazione obbli-
gatoria, il costo del dispositivo più rischioso tende a emergere e a essere
valutabile nel mercato: per cui il customer sarà costretto a pagare un
prezzo più alto, a parità di altri fattori, per l’uso del prodotto potenzial-
mente più dannoso. Anche se il prezzo di acquisto di una driverless car e di
un servizio provider di guida automatica sia più elevato del costo di un
veicolo tradizionale, includendo il costo di assicurazione, il customer sa-
rebbe in grado di valutare se siffatta differenza sia reale o se il costo
definitivo debba tenere conto dei risparmi dei premi assicurativi collegati
con la custodia o la proprietà dei veicoli tradizionali: a meno che nel
mercato manchi quella trasparenza necessaria a consentire al potenziale
acquirente di valutare complessivamente i costi effettivi.
A fronte dei dubbi derivanti da possibili opacità del mercato, mi
sembra che resti insuperabile l’idea che il sistema della responsabilità
oggettiva, se adeguatamente tarato, è preferibile a quello di un fondo
indennitario che socializza il rischio, perché ne incentiva la riduzione,
costringendo a fissare il livello della produzione o dell’attività in modo
economicamente sostenibile e al contempo promuovendo le politiche per
il miglioramento della sicurezza (116): se il produttore o il provider potes-

(114) In questa prospettiva BRUTTI, Intelligenza artificiale e responsabilità in ambito


medico, in Resp. medica, 2018, p. 473 ss., per il quale il fondo andrebbe finanziato dagli
utenti. Per un panorama delle questioni legate all’uso dell’intelligenza artificiale in campo
medico, con particolare riguardo all’esperienza inglese, cfr. SCHÖNBERGER, Artificial intelli-
gence in healthcare: a critical analisys of the legal and ethical implications, in 27 International
Journal of law and information technology, 2019, p. 171 ss.
(115) Ritiene che il fondo vada finanziato da tutti i soggetti coinvolti, compresi i
passeggeri delle auto elettriche, e coinvolgendo fondi pubblici, SCHROLL, Splitting the bill:
creating a national car insurance fund to pay for accidents in autonomous vehicles, in 109
Northwestern University L. Rev., 2015, p. 803 ss., 822 ss. Si può collocare in questa sede la
posizione di DAVOLA-PARDOLESI, op. cit., p. 628 s., i quali auspicano una soluzione in cui i
produttori risponderebbero per il mancato rispetto delle regole tecniche, mentre al di fuori
di questi illeciti risponderebbe un fondo finanziato dalla collettività.
(116) Condividendo le analisi di ABRAHAM-RABIN, Automated vehicles, cit., p. 153 ss.
1274 rivista di diritto civile 6/2020

sero collocare altrove il costo dei rischi inevitabili, ma calcolabili, non


sarebbero spinti a migliorare le performance dei sistemi di intelligenza
artificiale per ridurne ulteriormente l’impatto (117).
La proposta della Commissione, se ho ben inteso, di non superare la
state of art defence, che mi pare ragionevole per la generalità dei dispositivi
self learning, non è invece a mio avviso condivisibile nei settori considerati
a rischio elevato (118): concentrare la responsabilità oggettiva sulla figura
del provider e/o del proprietario, al solo fine di garantire il risarcimento dei
danni ai valori fondamentali della persona (vita, salute, proprietà) non
appare la soluzione più perspicua nella misura in cui questi soggetti si
rivelano essere, rispetto al produttore, in una posizione meno favorevole
per il controllo del rischio.
Piuttosto, potrebbe essere utile approfondire una diversa versione del
compensation fund, il cui onere di finanziamento non ricada sugli utenti,
quanto piuttosto sui produttori, ed eventualmente sui provider, secondo
un criterio legato non tanto alla quota di mercato (119), che ridurrebbe
l’effetto incentivante della responsabilità, quanto piuttosto alla frequenza e
alla gravità degli incidenti in cui il prodotto o la rete sia coinvolta (120). Il
fondo, che potrebbe essere integralmente sostitutivo della tecnica di re-
sponsabilità, avrebbe anche la funzione di coprire i danni anonimi, con-
sentendo una parziale socializzazione dei rischi, e avrebbe il vantaggio di
consentire un risparmio dei costi amministrativi di gestione del con-
flitto (121).

10. – La posizione della Commissione è stata ripresa, più di recente,


dalla Risoluzione del Parlamento europeo del 20 ottobre 2020.
Risoluzione che formula una proposta di Regolamento sulla responsa-
bilità per il funzionamento dei sistemi di intelligenza artificiale, ritenendo
insufficiente lo strumento della direttiva, anche per la rilevanza strategica

(117) È questa l’ottica da cui muove WAGNER, Robot liability, cit., p. 52, per cui ogni
“riduzione” del peso della responsabilità farebbe venire meno l’incentivo a investire sulla
sicurezza.
(118) Auspica l’eliminazione della defence per le driverless car: F.P. PATTI, The european
road, cit., p. 141 s.
(119) Sembra preferire il ricorso al criterio della quota di mercato, AL MUREDEN, Auto-
nomous cars, cit., p. 922, in quanto vorrebbe correlare il contributo al rischio introdotto
nella società.
(120) Seguendo la prospettiva accolta, ancorché riferita solo ai produttori, da ABRAHAM-
RABIN, Automated vehicles, cit., p. 169.
(121) Sui vantaggi e gli svantaggi del compensation fund sostitutivo della responsabilità
civile: BORGES, New liability concepts, cit., p. 159 ss.
saggi 1275

del settore. La Risoluzione non si sofferma invece sul tema della respon-
sabilità del produttore, limitandosi ad auspicarne l’adattamento attraverso
la ridefinizione dei concetti di prodotto, di pregiudizio e di difetto.
Piuttosto, il modello normativo che il Parlamento europeo intende
adottare è volto a rendere responsabile l’operatore, in linea con le rifles-
sioni già suggerite dalla Commissione. Nella proposta di Regolamento si
estende la responsabilità a tutti gli operatori, senza distinguere tra opera-
tore di front-end, ossia la persona che esercita un certo grado di controllo
su un rischio connesso al funzionamento del sistema di intelligenza artifi-
ciale e che beneficia del suo funzionamento (per esempio, il proprietario o
il custode dell’autovettura automatizzata o del dispositivo automatizzato) e
operatore di back-end, inteso quale persona che su base continuativa de-
finisce le caratteristiche della tecnologia e che fornisce i dati e il servizio di
supporto, esercitando un elevato gradi di controllo sul rischio (per esem-
pio, il gestore di una autostrada attrezzata per la guida automatizzata).
Entrambe le tipologie di operatori sono soggette a una regola di respon-
sabilità solidale, in caso di concorso di colpa o di coinvolgimento in un
danno causato da attività ad alto rischio, e sono tenuti, stavolta soltanto nel
caso di attività ad alto rischio, a stipulare un’adeguata polizza assicurativa a
copertura.
Seguendo il modello della Commissione, resta centrale il concetto di
attività ad alto rischio, per il cui esercizio l’operatore è soggetto a respon-
sabilità oggettiva. Le attività ad alto rischio sono definite in base alla
gravità dei possibili danni, al grado di autonomia della macchina, alla
probabilità del danno, e alle modalità o al contesto di utilizzo dello stru-
mento: per garantire l’affidamento degli operatori, però, sono sottoposte al
regime di responsabilità solo le attività individuate in apposito elenco, che
deve essere allegato al Regolamento, da sottoporre alla verifica e all’ag-
giornamento della Commissione. È previsto inoltre un massimale per ogni
persona danneggiata, secondo un modello coerente con il regime della
responsabilità oggettiva.
Restano invece sottoposte a un regime di responsabilità più attenuato
le altre attività che impiegano intelligenza artificiale. Nella proposta di
regolamento si evoca la responsabilità per colpa, aggravata da un sistema
di presunzioni (122). Spetta all’operatore dimostrare di avere esercitato
diligentemente le operazioni appropriate all’uso dell’intelligenza artificiale
(selezionando un sistema idoneo al compito e alle competenze, mettendo

(122) Secondo un modello auspicato da RACHUM-TWAIG, Whose robot, cit., p. 1167 ss.
1276 rivista di diritto civile 6/2020

debitamente in funzione il sistema, monitorando le attività e mantenendo


l’affidabilità operativa mediante periodici aggiornamenti); in alternativa,
l’operatore deve dimostrare che il sistema si sia attivato al di fuori del
controllo dell’operatore, nonostante l’adeguatezza delle misure adottate
per evitare tale attivazione.
Lo spostamento di focale dal produttore all’operatore, ove approvato,
consentirebbe di salvaguardare la struttura della direttiva della responsa-
bilità del produttore, la quale ha dato prova di efficienza, evitando di
incidere direttamente sui processi produttivi di sistemi di intelligenza arti-
ficiale, i quali potrebbe non sopportare un regime più rigoroso. La distin-
zione tra attività ad alto rischio e altre attività consentirebbe di adottare un
regime flessibile per coloro che utilizzano i dispositivi di intelligenza arti-
ficiale, che risulterebbe per tanti versi meno incisivo dell’attuale regola
interna della responsabilità per i danni causati da cose in custodia, secondo
il modello franco-italiano.
Si tratta di un modello che appare di particolare interesse anche per-
ché ricalca per alcuni versi il quadro normativo già adottato nel 2004 dalla
direttiva europea sulla responsabilità ambientale. La coerenza tra discipli-
ne con funzioni e oggetti cosı̀ diversi va segnalata perché esprime un
principio, potenzialmente utilizzabile per elaborare altri segmenti di re-
sponsabilità e per interpretare le discipline interne, strutturato sui concetti
di operatore e di attività rischiosa (123).

(123) Sulla responsabilità ambientale si consenta il rinvio a SALANITRO, Responsabilità


ambientale: questioni di confine, questioni di sistema, in Jus civile, 2019, p. 504 ss.

Potrebbero piacerti anche