Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
RIVISTA
DI DIRITTO
CIVILE
FONDATA E DIRETTA DA
PUBBL. BIMESTRALE - TARIFFA R.O.C.: POSTE ITALIANE S.P.A. - SPED. IN ABB. POST. - D. L. 353/2003 (CONV. IN L. 27/02/2004 N. 46) ART. 1, COMMA 1, DCB MILANO
WALTER BIGIAVI E ALBERTO TRABUCCHI
(1955-1968) (1955-1998)
DIREZIONE
FRANCESCO D. BUSNELLI - GIORGIO CIAN
ANTONIO GAMBARO - NATALINO IRTI
GIUSEPPE B. PORTALE - ANDREA PROTO PISANI
PIETRO RESCIGNO - RODOLFO SACCO
PAOLO SPADA - VINCENZO VARANO
E
GUIDO CALABRESI - ERIK JAYME
DENIS MAZEAUD - ÁNGEL ROJO FERNÁNDEZ-RIO
Novembre-Dicembre
2020
0
edicolaprofessionale.com/RDC
UGO SALANITRO (*)
Prof. ord. dell’Università di Catania
(3) Sul self learning ZECH, Liability for autonomous systems: tackling specific risks of
modern IT, in LOHSSE-SCHULZE-STAUDENMAYER (eds.), Liability for artificial intelligence, cit.,
p. 187 ss.; anche FIDOTTI, Nuove forme contrattuali nell’era del blockchain e del machine
learning. Profili di responsabilità, in ALPA (ed.), Diritto e intelligenza artificiale, cit., p. 335 ss.
(4) Sui rischi dell’intelligenza artificiale self learning e sulle difficoltà di individuare
rimedi efficaci si vedano: LEMLEY-CASEY, Remedies for robots, in 86 University of Chicago L.
Rev., 2019, p. 1311 ss.; SPINDLER, User liability and strict liability in the Internet of Things
and for robots, in LOHSSE-SCHULZE-STAUDENMAYER (eds.), Liability for artificial intelligence,
cit., p. 125 ss.
1248 rivista di diritto civile 6/2020
il tipo di problemi da loro posti, sono quelli che imputano gli effetti dei
danni causati da esseri senzienti, uomini o animali (5).
È questa la ragione per cui la dottrina, che si è pionieristicamente
occupata del tema, si è divisa tra chi ritiene necessario un adattamento,
in via analogica o attraverso riforme legislative, delle regole sulla respon-
sabilità civile (6) e chi reputa più appropriato il riconoscimento di una
condizione di soggettività direttamente in capo ai dispositivi di intelligenza
artificiale (7).
(5) Tra i tanti, si vedano: REVOLIDIS-DAHI, The peculiare case of the mushroom picking
robot: extracontractual liability in robotics, in CORRALES-FENWICK-FORGÒ (eds.), Robotics, AI
and future of law, cit., p. 57 ss.
(6) In tal senso sono esemplari le analisi – a partire da quella di WAGNER, Robot
liability, cit. – contenute in LOHSSE-SCHULZE-STAUDENMAYER (eds.), Liability for artificial
intelligence, cit., passim.; da ultimo RACHUM-TWAIG, Whose robot is it anyway? Liability
for artificial intelligence based robots, in University of Illinois law review, 2020, p. 1141
ss. Pur riguardando le driverless car, sono di respiro generale il bel saggio di ALBANESE,
La responsabilità civile per i danni da circolazione di veicoli ad elevata automazione, in Europa
e diritto privato, 2019, p. 995 ss., e il contributo, ricco di spunti comparatistici, di F.P.
PATTI, The European road to autonomous vehicles, in 43 Fordham International L. J., 2019, 1,
p. 136 ss.; ma già, in ambiente statunitense, GEISTFELD, A road map for autonomous vehicles:
state tort liability, automobile insurance, and federal safety regulation, in 105 California L.
rev., 2017, p. 1611 ss.
Nella più recente dottrina italiana, si trova un ampio panorama nelle reiterate riflessioni
di RUFFOLO (da ultimo La responsabilità da artificial intelligence, algoritmo e smart product:
per i fondamenti di un diritto dell’intelligenza artificiale self learning, in RUFFOLO (ed.),
Intelligenza artificiale, cit., p. 93 ss.) e negli scritti di: CAPILLI, La responsabilità per la
produzione di robot, in ALPA (ed.), La responsabilità del produttore, Milano 2019, p. 625
ss.; ID., I criteri di interpretazione della responsabilità, in ALPA (ed.), Diritto e intelligenza
artificiale, cit., p. 457 ss.; ID., Responsabilità e robot, in Nuova g. civ. comm., 2019, II, p. 621
ss.; FINOCCHIARO, Intelligenza artificiale e responsabilità, in Contratto e impr., 2020, p. 713
ss.; COSTANZA, L’intelligenza artificiale e gli stilemi della responsabilità civile, in G. it., 2019,
p. 1686 ss.; INFANTINO, La responsabilità per danni algoritmici: prospettive europeo continen-
tali, in Resp. civ., 2019, p. 1762 ss.; FRATTARI, Robotica e responsabilità da algoritmo. Il
processo di produzione dell’intelligenza artificiale, in Contratto e impr., 2020, p. 458 ss.; DI
ROSA, Robot e responsabilità per danni, in BARONE (ed), L’algoritmo pensante, Dalla libertà
dell’uomo all’autonomia dell’intelligenza artificiale, Trapani 2020, p. 85 ss. Meno recenti, ma
ancora di interesse: COPPINI, Robotica e intelligenza artificiale: questioni di responsabilità
civile, in Pol. d., 2018, p. 713 ss.; PALMERINI, Robotica e diritto: suggestioni, intersezioni,
sviluppi a margine di una ricerca europea, in Resp. civ., 2016, 6, p. 172 ss.; BERTOLINI,
Insurance e risk management for robotic devices: identifying the problems, in 16 Global jurist,
2016, 3, p. 291 ss.
(7) Di recente, tra gli altri, si vedano: TEUBNER, Soggetti giuridici digitali? Sullo stato
giuridico degli agenti software autonomi, Napoli 2019, passim; van der Hoven van Genderen,
Do we need to legal personhood in the age of robot and IA?, in CORRALES-FENWICK-FORGÒ
(eds.), Robotics, AI and future of law, cit., p. 15 ss.; cfr. EIDENMÜLLER, The rise of robots and
the law of humans, in 25 ZEuP, 2017, p. 765 ss. La prospettiva è tuttavia risalente: cfr.
SOLUM, Legal personhood for artificial intelligence, in 70 North Carolina L. Rev., 1992, p.
1231 ss.
saggi 1249
(8) Risoluzione del Parlamento europeo del 16.2.2017 recante raccomandazioni alla
Commissione concernenti norme di diritto civile sulla robotica (2015/2013 (INL)).
(9) Commissione Europea, COM (2018) 237 final, L’intelligenza artificiale per l’Europa.
(10) Commission Staff, SWD (2018) 237 final, Liability for emerging digital technolo-
gies.
(11) Liability for Artificial Intelligence and other emerging digital technologies, Report
from the Expert Group on Liability and New technologies – New Technologies Formation,
European Union, 2019.
(12) Commissione Europea, COM (2020) 64 final, 16 febbraio 2020, Relazione sulle
implicazioni dell’intelligenza artificiale, dell’Internet delle cose e della robotica in materia di
sicurezza e responsabilità.
(13) Commissione Europea, COM (2020) 65 final, 16 febbraio 2020, Libro bianco
sull’intelligenza artificiale – Un approccio europea all’eccellenza e alla fiducia.
(14) Su proposta della Commissione Giuridica (27 aprile 2020), il Parlamento Europeo
ha presentato il 20 ottobre 2020 una Risoluzione recante raccomandazioni alla Commissione
su un regime di responsabilità civile sull’intelligenza artificiale (2020/2014 (INL)), in cui
abbandona la tesi della soggettività, reputata non necessaria, e accoglie l’impostazione della
Commissione.
Una prospettiva ancora diversa, di sicuro interesse, si trova nel recente studio elaborato
per il Parlamento europeo da BERTOLINI, Artificial intelligence and civil liability, European
Union, 2020.
(15) Invitando la Commissione a esplorare “l’istituzione di uno status giuridico specifico
per i robot nel lungo termine, di modo che almeno i robot autonomi più sofisticati possano
essere considerati come persone elettroniche responsabili di risarcire qualsiasi danno da loro
causato, nonché eventualmente il riconoscimento della personalità elettronica dei robot che
prendono decisioni autonome o che interagiscono in modo indipendente con terzi”: Risoluzio-
1250 rivista di diritto civile 6/2020
ne del Parlamento europeo, cit., § 59 f). Sulle reazioni alla proposta di estensione della
soggettività cfr. CAROCCIA, Soggettività giuridica dei robot?, in ALPA (ed.), Diritto e intelli-
genza artificiale, cit., p. 214 ss., p. 226 ss.
(16) Commissione Europea, COM (2020) 64 final, 16 febbraio 2020, Relazione, cit.,
p. 19.
(17) Il tema ha suscitato interesse anche nella dottrina spagnola: v., tra gli altri, ERCILLA
GARCIA, Normas de derecho civil y robótica. Robots inteligentes, personalidad jurı́dica, respon-
sabilidad civil y regulación, Cizur Menor 2018, passim; ROGEL VIDE (ed.), Los robots y el
derecho, Madrid 2018, passim.
(18) TEUBNER, op. cit., passim.
(19) WAGNER, Robot liability, cit., p. 60 s.; la critica è sviluppata in ID., Robot, Inc.:
personhood for autonomous system?, in 88 Fordham L. Rev., 2019, p. 581 ss.
saggi 1251
3. – Il problema della tutela degli interessi che possono essere lesi dai
dispositivi di intelligenza artificiale deve essere in primo luogo affrontato
attraverso una rivisitazione delle norme di sicurezza.
Si pongono due questioni di particolare importanza.
La prima attiene alla difficoltà di accertare quale sia stata la causa del
danno in situazioni di elevata complessità, al fine di superare i problemi di
opacità del sistema e di pericoli connessi alla sua apertura. La soluzione
suggerita è quella di prevedere l’imposizione di strumenti di registrazione
per quei dispositivi che comportino un elevato grado di rischio, a causa
delle proprie caratteristiche intrinseche e per il potenziale contatto con
interessi di terzi da salvaguardare (22).
La seconda questione si rivolge al tema dei dispositivi self learning,
rispetto ai quali si paventano rischi più o meno elevati a causa della
imprevedibilità delle decisioni che possono assumere durante il corso della
loro vita: rischi che possono aumentare per quei prodotti a tecnologia
aperta che consentono all’utilizzatore di scegliere se utilizzare o no gli
update del fornitore originale o anche quelli di altri produttori (23).
L’ottica in cui si muove la Commissione non sembra essere quella,
suggerita da alcuni studiosi, di sottoporre la produzione di questi dispo-
sitivi a una versione particolarmente rigida del principio di precauzione,
imponendo un meccanismo di blocco di evoluzioni del prodotto in senso
(20) WAGNER, Robot liability, cit., p. 53 ss.; anche SOLAIMAN, Legal personality of robots,
corporations, idols and chimpanzees: a quest for legitimacy, in 25 Artif. Intell. Law, 2017, p.
155; CAROCCIA, Soggettività, cit., p. 226 ss.
(21) “A legal and not a philosophical question”: WAGNER, Robot liability, cit., p. 53;
anche CAROCCIA, Soggettività, cit., p. 242 ss.
(22) Commissione Europea, COM (2020) 64 final, 16 febbraio 2020, Relazione, cit.,
p. 10.
(23) Commissione Europea, COM (2020) 64 final, 16 febbraio 2020, Relazione, cit., p.
7 ss.
1252 rivista di diritto civile 6/2020
(28) Commissione Europea, COM (2020) 64 final, 16 febbraio 2020, Relazione, cit.,
p. 12.
(29) È la tesi sostenuta per l’ordinamento italiano da RUFFOLO, La responsabilità, cit., p.
93 ss.
1254 rivista di diritto civile 6/2020
(34) Commissione Europea, COM (2020) 64 final, 16 febbraio 2020, Relazione, cit., p.
14 s.
(35) Modello interpretativo che è accolto da dottrina autorevole, per la quale ci limi-
1256 rivista di diritto civile 6/2020
tiamo a citare: P. TRIMARCHI, La responsabilità civile: atti illeciti, rischio, danno, Milano 2019,
p. 343 ss.; CASTRONOVO, Responsabilità civile, Milano 2018, p. 460 ss.; COMPORTI, Fatti
illeciti: le responsabilità oggettive (artt. 2019 – 2053), in Comm. Schlesinger – Busnelli,
Milano 2009, p. 257 ss.; SALVI, La responsabilità civile, in Tratt. Iudica Zatti, Milano
2019, p. 181 ss.; in senso opposto, BIANCA, La responsabilità, cit., p. 718 ss.; F.P. PATTI,
Il declino della responsabilità oggettiva (a margine dell’art. 2051 c.c.), in questa Rivista, 2019,
p. 977 ss. Si collocano nella prima prospettiva, tra i cultori del tema specifico: RUFFOLO, La
responsabilità, cit., p. 99 ss.; ALBANESE, La responsabilità civile, cit., p. 1011 ss.
(36) WAGNER, Robot liability, cit., p. 49 ss.
(37) Ancorché nell’ordinamento tedesco la responsabilità vicaria extracontrattuale pre-
vede esimenti che non trovano riscontro nella disciplina italiana o francese: MARKESINIS-
BELL-JANSENN, Markesinis’s German law of torts, Chicago 2019, p. 125 s.
(38) Cfr. KARNER, Liability for robotics: current rules, challenges and the need, in LOHSSE-
SCHULZE-STAUDENMAYER (eds.), Liability for artificial intelligence, cit., p. 120, il quale, al
riguardo, riprende la tesi che prospetta l’applicazione (in via analogica) della responsabilità
vicaria nel caso di danno provocato da robot. Tesi che sembra trovare un cauto spazio nel
documento del gruppo di esperti, Liability for artificial intelligence, cit., p. 45 s., ma che non
viene recepita dalla Commissione: Commissione Europea, COM (2020) 64 final, 16 febbraio
2020, Relazione, cit., passim.
(39) Prospetta l’applicabilità dell’art. 2050 c.c. ai danni da robot, RUFFOLO, La respon-
sabilità, cit., p. 109.
(40) WAGNER, Robot liability, cit., p. 51 s.
(41) TEUBNER, Soggetti giuridici digitali, cit., p. 90 s.
(42) Cfr. CASTRONOVO, Responsabilità civile, cit., p. 469 ss.
(43) Il tema è obiettivamente controverso, perché l’attività che faccia uso dei dispositivi
saggi 1257
intelligenti può essere considerata pericolosa nella misura in cui le interconnessioni tra i
prodotti e i servizi informatici possono provocare rischi sistemici: sulla rilevanza di tali rischi
SPLINDER, User liability, cit., p. 127 s.
(44) Sulla questione KOCH, Product liability 2.0 – Mere update or new version?, in
LOHSSE-SCHULZE-STAUDENMAYER (eds.), Liability for artificial intelligence, cit., p. 110 ss., il
quale pone a confronto la posizione del proprietario e quella del produttore del dispositivo
al fine di valutare quale sia quella sulla quale è più opportuno allocare i rischi. Da ultimo si
veda RACHUM-TWAIG, Whose robot, cit., p. 1171 ss.
(45) In tal senso WAGNER, Robot liability, cit., p. 37 ss.; KARNER, Liability for robotics,
cit., p. 117 ss.
1258 rivista di diritto civile 6/2020
(46) In tema WAGNER, Robot liability, cit., p. 37 ss.; F.P. PATTI, The European road, cit.,
p. 136 ss.; AMIDEI, Intelligenza artificiale e responsabilità da prodotto, in RUFFOLO (ed.),
Intelligenza artificiale, cit., p. 125 ss.; RACHUM-TWAIG, Whose robot, cit., p. 1154 ss.
(47) Commissione Europea, COM (2020) 64 final, 16 febbraio 2020, Relazione, cit.,
p. 13.
(48) Per tutti ALPA, Introduzione, in ALPA (ed.), La responsabilità del produttore, cit., p.
7 ss.; ma cfr. CASTRONOVO, Responsabilità civile, cit., p. 789 ss., il quale, per tenere ferma la
natura oggettiva della responsabilità, è costretto a interpretare in modo peculiare il riferi-
mento alla nozione di difetto.
(49) In tal senso, con particolare riferimento al difetto di progettazione e di informa-
zione, v.: BRÜGGERMAIER, Tort law in the European Union, Alphen aan dem Rijn 2018, p. 205
s., dove si rileva che la giurisprudenza per determinare il difetto procede in un modo per
certi versi analogo a quello che consente di rilevale la colpa; anche WAGNER, Robot liability,
cit., p. 35 s., per il quale, anche in relazione al difetto di produzione, la disciplina europea
della responsabilità del produttore si può considerare una “watered-down version of negli-
gence liability”. Discorre di “closeness” tra colpa e difetto BORGHETTI, How can artificial
intelligence be defective?, in LOHSSE-SCHULZE-STAUDENMAYER (eds.), Liability for artificial
intelligence, cit., p. 72. Una concezione particolare, per cui la colpa assumerebbe rilevanza
decisiva, trapela in P. TRIMARCHI, La responsabilità civile, cit., p. 415 ss. Un senso diverso va
attribuito al rilievo di chi osserva che molti osservatori non considerano oggettiva la re-
sponsabilità del produttore, perché il produttore, per evitarla, deve soltanto rispettare “the
state of art”: SPINDLER, User liability, cit., p. 129.
saggi 1259
namenti, anche per la sicurezza dei terzi, per assicurare che i beni digitali
restino conformi per il periodo previsto in contratto o per il periodo di
tempo che il consumatore può ragionevolmente attendersi.
La disciplina sulla vendita di beni di consumo ha una portata diversa
da quella della responsabilità del produttore, la quale va oltre il rapporto
tra le parti del contratto: gli obblighi verso l’acquirente del bene, anche se
tarati per la sicurezza dei terzi, non si traducono necessariamente in doveri
nei confronti degli altri consociati.
In ogni caso la riforma della direttiva sulla vendita dimostra l’esistenza
di un gap nel sistema e la necessità di una riforma della direttiva sulla
responsabilità.
In primo luogo si pone un problema di estensione dell’oggetto della
direttiva. La disciplina della responsabilità del produttore si applica ai
prodotti, intesi quali beni mobili (50): non è estesa ai servizi ed è ricorrente
il dubbio se il software sia un prodotto o un servizio (51). Si ritiene che il
produttore dell’hardware risponda dei difetti del software che sia incor-
porato nel prodotto (52): ma è discusso se risponda in quei casi in cui il
software non è incorporato nel prodotto, ma sia collocato altrove (53). Ove
il software fosse considerato un servizio, non sarebbe comunque applica-
bile la disciplina della responsabilità del produttore agli update successivi
alla messa in circolazione del bene (54).
Secondo la Commissione, andrebbe “ulteriormente chiarito” l’ambito
di applicazione della direttiva “per rispecchiare meglio la complessità delle
tecnologie emergenti e garantire che il risarcimento sia sempre possibile per i
(50) In tema WAGNER, Robot liability, cit., p. 41 s.; anche CAPILLI, I criteri, cit., p. 473
ss.; AMIDEI, Intelligenza artificiale, cit., p. 131 ss.
(51) Secondo la Commissione Europea, COM (2020) 64 final, 16 febbraio 2020,
Relazione, cit., p. 15, alcune forme di software sarebbero difficili da classificare come
prodotto, potendo piuttosto essere considerati servizi.
(52) WAGNER, Robot liability, cit., p. 41; BORGHETTI, op. cit., p. 64; KOCH, Product
liability 2.0, cit., p. 105.
(53) In senso estensivo: WAGNER, Robot liability, cit., p. 41 s.; BORGHETTI, op. cit., p. 64;
KOCH, Product liability 2.0, cit., p. 105 s.; anche AMIDEI, Intelligenza artificiale, cit., p. 135 ss.
(54) Nell’ambito della disciplina italiana, secondo la giurisprudenza di legittimità, il
produttore di beni e servizi è responsabile per i danni ai sensi dell’art. 2050 c.c., anche
qualora il danno non derivi dalla produzione del bene o del servizio, ma dalla pericolosità
(dell’uso) del prodotto finale: si tratta di una opinione discutibile, come ben illustrato da A.
FUSARO, Attività pericolose e dintorni. Nuove applicazioni dell’art. 2050 c.c., ora in ALPA (ed.),
La responsabilità del produttore, cit., p. 393 ss.; ma che trova convinti adepti anche sullo
specifico versante dell’intelligenza artificiale, tra i quali RUFFOLO, La responsabilità, cit., p.
111 ss.
1260 rivista di diritto civile 6/2020
(55) Commissione Europea, COM (2020) 64 final, 16 febbraio 2020, Relazione, cit.,
p. 15.
(56) WAGNER, Robot liability, cit., p. 45 ss.; anche AMIDEI, Intelligenza artificiale, cit., p.
147 ss.
(57) In tal senso è la posizione che emerge da Commissione Europea, COM (2020) 64
final, 16 febbraio 2020, Relazione, cit., p. 16, che rinvia alle proposte tecniche contenute in
Liability for Artificial Intelligence, cit., p. 42 ss., anche 49 ss., 52 ss.
(58) Sul tema dell’onere della prova del difetto: C. AMATO, Product liability and product
security: present and future, in LOHSSE-SCHULZE-STAUDENMAYER (eds.), Liability for artificial
intelligence, cit., p. 79 ss.; per considerazioni di carattere generale, A. FUSARO, Il difetto del
prodotto e la sua dimostrazione: il problema della prova a carico del danneggiato, in ALPA
(ed.), La responsabilità del produttore, cit., p. 425 ss.
(59) Diversamente orientati: WAGNER, Robot liability, cit., p. 42 ss.; BORGHETTI, op. cit.,
p. 63 ss.; ALBANESE, La responsabilità civile, cit., p. 1018 ss.; F.P. PATTI, The european road,
cit., p. 142 ss.; anche AMIDEI, Intelligenza artificiale, cit., p. 138 ss.
(60) BORGHETTI, op. cit., p. 66.
(61) Commissione Europea, COM (2020) 64 final, 16 febbraio 2020, Relazione, cit.,
p. 13.
saggi 1261
per cui la Commissione paventa che possa avere uno spazio più ampio del
solito la “difesa basata sul difetto successivo” (70). Da un prodotto dotato di
un algoritmo self learning ci si aspetta che impari autonomamente intera-
gendo con l’ambiente per migliorare le proprie performance (71), ma non si
possono escludere, applicando il criterio di ragionevolezza (72), deviazioni
comportamentali conseguenti allo stesso processo di apprendimento (73):
perché, per essere rilevante, la deviazione deve essere collegabile con un
difetto sussistente al momento della messa in circolazione del prodotto, ad
esempio una propensione anomala del meccanismo di self learning a pro-
vocare quel tipo di comportamenti dannosi (74).
La nozione di difetto per le anomalie legate ai processi di self learning
pone altre difficoltà, legate alla “difesa basata sui rischi di sviluppo” (state of
art o risk develompment defence) (75) – opzionale a livello europeo, ma in
vigore nell’ordimento italiano – ai sensi della quale va esclusa la qualifica
di difetto per l’anomalia imprevedibile allo stato delle oggettive conoscen-
ze tecnico scientifiche del tempo, al momento della commercializzazione
del prodotto (76).
Appare evidente che le criticità più importanti della disciplina sulla
responsabilità del produttore emergono nella misura in cui si riferisce il
difetto al tempo della messa in circolazione del prodotto: in questo senso
la Commissione propone che, contestualmente all’introduzione di obblighi
di monitoraggio nella disciplina per la sicurezza dei prodotti, si modifichi
la regola della “messa in circolazione” per tenere conto della circostanza
(70) Commissione Europea, COM (2020) 64 final, 16 febbraio 2020, Relazione, cit.,
p. 17.
(71) Cosı̀, senza infingimenti, LEMLEY-CASEY, Remedies for robots, cit., p. 1335 s.
(72) Nella nostra dottrina e giurisprudenza è ricorrente, l’idea secondo la quale un
prodotto sicuro non deve essere un prodotto del tutto innocuo, ma un prodotto per il quale
siano stati rispettati i migliori standard di sicurezza. Cfr., ma si tratta di riflessione in
ambiente di common law, ABBOTT, The reasonable computer: disrupting the paradigma of
tort liability, in 86 George Washington L. Rev., 2018, p. 1 ss.
(73) Esempio illuminante, nell’ambito del trattamento medico, in COMANDÈ, Intelligen-
za artificiale e responsabilità tra liability e accountability. Il carattere trasformativo della IA e il
problema della responsabilità, in Analisi giur. economia, 2019, p. 169 ss.; altri esempi in
LEMLEY-CASEY, Remedies for robots, cit., p. 1312 s., 1336 ss.
(74) Tende a svalutare invece la rilevanza del processo di self learning DI GREGORIO,
Robotica e intelligenza artificiale: profili di r.c. in campo sanitario, in Resp. medica, 2019, p.
433 ss.
(75) Come messo in evidenza in Commissione Europea, COM (2020) 64 final, 16
febbraio 2020, Relazione, cit., p. 17, che poi sembra non tornare più in argomento.
(76) Cfr. F.P. PATTI, The european road, cit., p. 141 s.; CAPILLI, I criteri, cit., p. 481 s.
saggi 1263
(77) Commissione Europea, COM (2020) 64 final, 16 febbraio 2020, Relazione, cit.,
p. 18.
(78) Commissione Europea, COM (2020) 64 final, 16 febbraio 2020, Relazione, cit.,
p. 17.
(79) Ci troviamo quindi di fronte a una questione diversa da quella della sopravvenuta
conoscenza della pericolosità dopo la messa in circolazione del prodotto, sulla quale si
sofferma CASTRONOVO, Responsabilità civile, cit., p. 812 ss.
(80) Auspicava già una modifica in tal senso parte della dottrina: ALBANESE, La respon-
sabilità civile, cit., p. 1018 s.
(81) Liability for Artificial Intelligence, cit., p. 43.
1264 rivista di diritto civile 6/2020
(85) Si pensi alla singolarità della lettura, ormai corrente, per cui il danno da attività
pericolose avrebbe un regime di responsabilità meno rigoroso o comunque equiparabile alla
responsabilità per danno da cose o da animali, almeno in quelle prospettive, già illustrate,
che considerano queste ultimi casi di responsabilità oggettiva. La scarsa coerenza o una vera
e propria contraddizione sono rilevate da autorevole dottrina: SALVI, La responsabilità civile,
cit., p. 184; CASTRONOVO, Responsabilità civile, cit., p. 465 ss., per il quale “paradossalmente,
l’art. 2050 sembra modellato su una regola di responsabilità meno rigorosa di quella dell’art.
2051 c.c.”; nello stesso senso cfr., seppure ad altro fine, P. TRIMARCHI, Rischio e responsa-
bilità oggettiva, Milano 1961, p. 196; ID., La responsabilità civile, cit., p. 345 s., 411. Evidenti
le difficoltà di coordinamento tra le due disposizioni in COMPORTI, Fatti illeciti: le responsa-
bilità oggettive, cit., p. 150 ss. Nel senso che entrambe le discipline vadano equiparate
perché espressione di regole di presunzione di colpa (responsabilità aggravata): BIANCA,
La responsabilità, cit., p. 704 ss.
saggi 1267
european road, cit., p. 125 ss.; A. ALBANESE, La responsabilità civile, cit., p. 995 ss.; DAVOLA-
PARDOLESI, In viaggio con il robot: verso nuovi orizzonti della r.c. auto (driverless)?, in Danno
e resp., 2017, p. 616 ss.; anche ATKINSON, Autonomous cars: a driving force for change in
motor liability and insurance, in 17 Scripted, 2020, p. 125 ss.; CHATZIPANAGIOTIS-LELOUDAS,
Automated vehicles and third-party liability: a European perspective, in University of Illinois
Journal of Law, Tech. and Policy, 2020, p. 1; CERINI-PISANI TEDESCO (eds.), Smart mobility,
smart cars e intelligenza artificiale: responsabilità e prospettive, Torino 2019; VOTANO, La
responsabilità da circolazione stradale nella fase di transizione dai veicoli tradizionali alle auto
a guida automatica, in Danno e resp., 2019, p. 330 ss.; PELLEGATTA, Automazione nel settore
automotive: profili di responsabilità civile, in Contratto e impr., 2019, p. 1418 ss.; GAETA,
Automazione e responsabilità civile automobilistica, in Resp. civ., 2016, 5, p. 1717 ss.
(90) TRIMARCHI, Rischio e responsabilità oggettiva, cit., p. 253 ss.
(91) TRIMARCHI, Rischio e responsabilità oggettiva, cit., p. 254 ss.
(92) TRIMARCHI, Rischio e responsabilità oggettiva, cit., p. 254.
saggi 1269
(93) AL MUREDEN, Autonomous cars, cit., p. 913 ss. Si tenga presente che l’attuale disci-
plina italiana per la guida automatica, introdotta dal d.m. 28 febbraio 2018, riprende sostan-
zialmente l’assetto normativo previgente: AL MUREDEN , Autonomous cars, cit., p. 916 s.
(94) Anche se un certo ruolo non può negarsi per i livelli di automazione più bassa: sul
punto ampia riflessione in ALBANESE, La responsabilità civile, cit., p. 1001 ss.; AL MUREDEN,
Autonomous cars, cit., p. 913 ss.; al periodo di transizione nell’ordinamento statunitense è
dedicato il saggio di HRESKO PEARL, Hands on the wheel: a call for greater regulation of semi-
autonomous car, in 93 Indiana law journal, 2018, 3, p. 713 ss.
(95) WAGNER, Robot liability, cit., p. 37 ss.; DAVOLA-PARDOLESI, op. cit., p. 620; ALBA-
NESE, La responsabilità civile, cit., p. 1000 s.; F.P. PATTI, The European road, cit., p. 150;
ABRAHAM-RABIN, Automated vehicles and manufacturer responsability for accidents: a new
legal regim for a new era, in 105 Virginia law review, 2019, 1, p. 127 ss., 145. Per un’ampia
analisi, riferita all’ordinamento statunitense, sul ruolo del conducente nei veicoli totalmente
automatizzati: HRESKO PEARL, Fast & furious: the misregulation of driverless cars, in 73 New
York University annual survay of american law, 2017, 1, p. 19 ss.
(96) Cfr. CASTRONOVO, Responsabilità civile, cit., p. 759; DAVOLA-PARDOLESI, op. cit., p.
620; ABRAHAM-RABIN, Automated vehicles, cit., p. 153.
(97) Non a caso è a questa figura che si ricollega la responsabilità nella più recente
legislazione francese, tedesca e inglese sulle driverless cars: F.P. PATTI, The European road,
cit., p. 132 ss., 152 ss., il quale arriva a sostenere che tale soluzione sarebbe ottimale nella
fase di transizione anche perché spingerebbe i proprietari ad indirizzarsi verso le nuove
autovetture, i cui costi assicurativi sarebbero di gran lunga minori.
(98) Nega che in molti ordinamenti sarebbe necessario modificare la legislazione esi-
stente BORGHETTI, op. cit., p. 74; nello stesso senso WAGNER, Robot liability, cit., p. 51 s., per
il quale sarebbe “foolish” abbandonare un “well-oiled” sistema di responsabilità e assicura-
zione.
(99) ALBANESE, La responsabilità civile, cit., p. 1004 ss., 1014 ss.
1270 rivista di diritto civile 6/2020
(100) Nella dottrina italiana ritengono congruo che il produttore di driverless car di-
venga maggiormente responsabile: F.P. PATTI, The european road, cit., p. 136 ss., 141 ss.,
156 ss., 158 ss.; RUFFOLO, Intelligenza artificiale e automotive, cit., p. 159 ss. Propongono
una regola di strict liability per i produttori, seppure attraverso la mediazione di un fondo,
che superi il modello vigente basato sul difetto, ABRAHAM-RABIN, Automated vehicles, cit., p.
153 ss. Nel senso che la riduzione dei doveri del conducente comporti un aumento dei
doveri del produttore, per riferimenti in common law: PYMAN, The liability blind spot: civil
liability blurred vision of conditional automated vehicles, in 92 Australian law journal, 2018,
4, p. 293 ss.; ROE, Who’s driving that car?: an analisys of regulatory and potential liability
frameworks for driverless cars, in 60 Boston College L. R., 2019, p. 315 ss.
(101) WAGNER, Robot liability, cit., p. 37 ss.
(102) Cosı̀ WAGNER, Robot liability, cit., p. 51.
(103) Assumono la centralità della figura del produttore, anche: AL MUREDEN, Auto-
nomous cars, cit., p. 917 ss.; DAVOLA-PARDOLESI, op. cit., p. 624 ss.
(104) La prospettiva più articolata e corretta si trova in KOCH, Product liability 2.0, cit.,
101 ss., secondo il quale vi sono comunque una pluralità di soggetti coinvolti nella rete di
connessioni su cui circolano le driverless car; nello stesso senso cfr. LOHSSE-SCHULZE-STAU-
DENMAYER, Liability for artificial intelligence, in LOHSSE-SCHULZE-STAUDENMAYER (eds.), Lia-
bility for artificial intelligence, cit., p. 19 s.
(105) Commissione Europea, COM (2020) 64 final, 16 febbraio 2020, Relazione, cit., p.
18 s.
(106) Liability for Artificial Intelligence, cit., p. 39 ss.
saggi 1271
(111) In tema BORGES, New liability concepts: the potential of insurance and compensa-
tion funds, in LOHSSE-SCHULZE-STAUDENMAYER (eds.), Liability for artificial intelligence, cit.,
p. 145 ss., 159 ss.
(112) Risoluzione del Parlamento europeo, cit., § 59, in cui si invita la Commissione a
valutare “b) la costituzione di un fondo di risarcimento non solo per garantire il risarcimento
quando il danno causato dal robot non è assicurato; c) la possibilità per il produttore, il
programmatore, il proprietario o l’utente di beneficiare di una responsabilità limitata qualora
costituiscano un fondo di risarcimento (…); d) la scelta tra la creazione di un fondo generale
per tutti i robot autonomi intelligenti o di un fondo individuale per ogni categoria di robot e
tra il versamento di un contributo una tantum all’immissione sul mercato di un robot o
versamenti regolari durante la vita del robot; e) l’istituzione di un numero di immatricolazione
individuale iscritto in un registro specifico dell’unione, in modo da associare in modo evidente
il robot al suo fondo, onde consentire a chiunque interagisca con il robot di essere informato
sulla natura del fondo, sui limiti della responsabilità in caso di danno alle cose, sui nomi e sulle
funzioni dei contributori e su tutte le altre informazioni pertinenti”.
(113) Liability for Artificial Intelligence, cit., p. 62 s., la cui posizione è cosı̀ sintetizzata:
“Compensation funds may be used to protect tort victims who are entitled to compensation
according to the applicable liability rules, but whose claims cannot be satisfied”.
saggi 1273
(117) È questa l’ottica da cui muove WAGNER, Robot liability, cit., p. 52, per cui ogni
“riduzione” del peso della responsabilità farebbe venire meno l’incentivo a investire sulla
sicurezza.
(118) Auspica l’eliminazione della defence per le driverless car: F.P. PATTI, The european
road, cit., p. 141 s.
(119) Sembra preferire il ricorso al criterio della quota di mercato, AL MUREDEN, Auto-
nomous cars, cit., p. 922, in quanto vorrebbe correlare il contributo al rischio introdotto
nella società.
(120) Seguendo la prospettiva accolta, ancorché riferita solo ai produttori, da ABRAHAM-
RABIN, Automated vehicles, cit., p. 169.
(121) Sui vantaggi e gli svantaggi del compensation fund sostitutivo della responsabilità
civile: BORGES, New liability concepts, cit., p. 159 ss.
saggi 1275
del settore. La Risoluzione non si sofferma invece sul tema della respon-
sabilità del produttore, limitandosi ad auspicarne l’adattamento attraverso
la ridefinizione dei concetti di prodotto, di pregiudizio e di difetto.
Piuttosto, il modello normativo che il Parlamento europeo intende
adottare è volto a rendere responsabile l’operatore, in linea con le rifles-
sioni già suggerite dalla Commissione. Nella proposta di Regolamento si
estende la responsabilità a tutti gli operatori, senza distinguere tra opera-
tore di front-end, ossia la persona che esercita un certo grado di controllo
su un rischio connesso al funzionamento del sistema di intelligenza artifi-
ciale e che beneficia del suo funzionamento (per esempio, il proprietario o
il custode dell’autovettura automatizzata o del dispositivo automatizzato) e
operatore di back-end, inteso quale persona che su base continuativa de-
finisce le caratteristiche della tecnologia e che fornisce i dati e il servizio di
supporto, esercitando un elevato gradi di controllo sul rischio (per esem-
pio, il gestore di una autostrada attrezzata per la guida automatizzata).
Entrambe le tipologie di operatori sono soggette a una regola di respon-
sabilità solidale, in caso di concorso di colpa o di coinvolgimento in un
danno causato da attività ad alto rischio, e sono tenuti, stavolta soltanto nel
caso di attività ad alto rischio, a stipulare un’adeguata polizza assicurativa a
copertura.
Seguendo il modello della Commissione, resta centrale il concetto di
attività ad alto rischio, per il cui esercizio l’operatore è soggetto a respon-
sabilità oggettiva. Le attività ad alto rischio sono definite in base alla
gravità dei possibili danni, al grado di autonomia della macchina, alla
probabilità del danno, e alle modalità o al contesto di utilizzo dello stru-
mento: per garantire l’affidamento degli operatori, però, sono sottoposte al
regime di responsabilità solo le attività individuate in apposito elenco, che
deve essere allegato al Regolamento, da sottoporre alla verifica e all’ag-
giornamento della Commissione. È previsto inoltre un massimale per ogni
persona danneggiata, secondo un modello coerente con il regime della
responsabilità oggettiva.
Restano invece sottoposte a un regime di responsabilità più attenuato
le altre attività che impiegano intelligenza artificiale. Nella proposta di
regolamento si evoca la responsabilità per colpa, aggravata da un sistema
di presunzioni (122). Spetta all’operatore dimostrare di avere esercitato
diligentemente le operazioni appropriate all’uso dell’intelligenza artificiale
(selezionando un sistema idoneo al compito e alle competenze, mettendo
(122) Secondo un modello auspicato da RACHUM-TWAIG, Whose robot, cit., p. 1167 ss.
1276 rivista di diritto civile 6/2020