Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
4 ottobre 2021
È per tale motivo che il Codice Civile fa riferimento, per valutarne la correttezza della
condotta del debitore, al concetto di “media”, ovvero dell’uomo medio, buon padre di
famiglia e, nelle professioni, alla diligenza del professionista medio. La condotta del
debitore è analizzata, dunque, in riferimento ad un parametro standardizzato,
attendibile secondo una ordinaria verificazione statistica.
1/13
L’impiego dell’intelligenza artificiale riduce i rischi legati all’imprevedibilità dell’agire
umano e attenua le conseguenze dannose dovute alla manualità della prestazione o
della tecnica adottata. Le potenzialità dell’impiego di strumenti di intelligenza artificiale si
colgono maggiormente in relazione ad attività complesse connotate da un elevato grado
di rischio. Si pensi, in proposito, all’impiego crescente di software di machine learning o di
robot in relazione all’attività medica.
La medicina basata sulle evidenze: a) utilizza metodi analitici; b) si basa sul confronto tra
dati per dedurre il nesso di causalità; c) utilizza minori volumi di dati.
Ad avviso di parte della scienza medica, una delle maggiori criticità è costituita dal rischio
che nel tempo i medici possano sviluppare un ingiustificato ed eccessivo affidamento
nelle capacità dell’automazione (c.d. over-reliance)[6].
Sorge così il rischio che derivi una dipendenza (overdependence) dai sistemi di A.I. con
conseguente probabile dequalificazione (deskilling), dovuta alla progressiva
automatizzazione dell’attività medica[7].
Come riporta uno studio specialistico, “in letteratura medica sono già presenti alcuni
esempi di questo fenomeno: in un’analisi condotta da parte di un gruppo di ricercatori
della City University of London sulla lettura di 180 mammogrammi da parte di 50
professionisti, è stata documentata una riduzione della sensibilità diagnostica del
14,5% per il rilievo di cancro mammario nei medici più esperti, quando a questi venivano
presentate immagini di difficile lettura corredate con l’interpretazione da parte del
computer, mentre solo un aumento dell’1,6% della sensibilità diagnostica è stato rilevato
grazie al supporto del computer nel sottogruppo di medici meno esperti quando a questi
venivano presentati casi di più semplice interpretazione”[8].
2/13
Si pensi ai cambiamenti demografici in corso, a causa dei quali i sistemi sanitari sono
costretti a fornire assistenza a una popolazione che invecchia. Ciò anche alla luce
dell’attuale emergenza pandemica: la vicinanza degli operatori sanitari alla popolazione
anziana, nel corso di una pandemia, è causa di potenziale trasmissione di agenti
patogeni.
Occorre, inoltre, considerare che il software può essere dotato di algoritmi in grado di far
migliorare il comportamento della macchina, di modo da poter operare in contesti per
i quali i programmatori non possono, a priori, prevedere tutte le possibilità di sviluppo e i
contesti in cui il sistema si trova a operare[11].
Lo sviluppo dell’A.I. reca con sé un altro fenomeno, quello della creazione di imponenti
masse di dati, i quali vengono custoditi e adoperati per finalità che esulano dalla sola
cura del singolo paziente. Tale massa di dati richiede specifiche competenze nel settore
della gestione e della protezione degli stessi e spesso vengono adoperati appositi
software intelligenti capaci di ordinare e ricercare informazioni, attività altrimenti gravosa
per l’operatore tecnico.
A titolo esemplificativo, negli USA è stato approvato l’Health Information Technology for
Clinical Health (HITECH) Act, strumento che ha consentito l’impiego di più di 35 miliardi
di dollari di incentivi rivolti al settore medico per lo sviluppo di un sistema elettronico di
gestione e comunicabilità delle cartelle cliniche[12].
3/13
1. a) non dovrebbe in alcun modo limitare il tipo o l’entità dei danni che possono
essere risarciti, né dovrebbe limitare le forme di risarcimento che possono essere
offerte alla parte lesa per il semplice fatto che il danno è provocato da un soggetto
non umano;
2. b) necessità di un’analisi specifica dei rischi di danni
3. c) l’approccio di gestione dei rischi non si concentra sulla persona “che ha agito con
negligenza“, bensì sulla persona che, in determinate circostanze, è in grado di
minimizzare i rischi e affrontare l’impatto negativo;
4. d) la responsabilità dovrebbe essere proporzionale all’effettivo livello di istruzioni
impartite al robot e al grado di autonomia di quest’ultimo, di modo che quanto
maggiore è la capacità di apprendimento o l’autonomia di un robot e quanto
maggiore è la durata della formazione di un robot, tanto maggiore dovrebbe
essere la responsabilità del suo formatore;
5. e) una possibile soluzione al problema della complessità dell’attribuzione della
responsabilità per il danno causato da robot sempre più autonomi potrebbe essere
un regime di assicurazione obbligatorio.
Viene posto, inoltre, l’importante principio dello ‘‘human in command approach’’, in virtù
del quale si afferma la necessità, anche in ambito sanitario, che ‘‘la programmazione
iniziale di cura e la scelta finale sull’esecuzione [spettino, n.d.r.] sempre ad un chirurgo
umano’’[13], con ciò scongiurando la possibilità di decisioni fondate esclusivamente
sul contributo degli strumenti di intelligenza artificiale.
L’interesse dell’Unione Europea verso l’A.I. trova ulteriore spazio nel Libro Bianco della
Commissione Europea sull’intelligenza artificiale del 19.2.2020, nel quale si riporta
che uno dei principali problemi relativi all’impiego dell’AI è l’incertezza in merito
all’attribuzione delle responsabilità tra i diversi operatori economici lungo la catena di
approvvigionamento.
4/13
orizzontale e armonizzato, basato su principi comuni, per garantire la certezza giuridica,
fissare norme uniformi in tutta l’Unione e tutelare efficacemente i valori europei e i diritti
dei cittadini’’.
Il Parlamento ritiene che non sia necessaria una revisione completa dei regimi di
responsabilità correttamente funzionanti, ma che la capacità di modifica mediante
aggiornamenti, l’autoapprendimento e la potenziale autonomia dei sistemi di A.I., come
pure la molteplicità degli attori coinvolti nel settore, rappresentino comunque una sfida
significativa per l’efficacia dei quadri normativi dell’Unione e nazionali in materia di
responsabilità.
La Corte di Giustizia dell’Unione Europea ha, poi, confermato che, ai fini della normativa
in esame, è da considerarsi ‘‘dispositivo medico’’ ogni device al quale il produttore
abbia attribuito uno scopo di natura ‘‘medico-sanitaria’’, intendendosi per tale la finalità
di ristorare, correggere o modificare in modo apprezzabile funzioni fisiologiche degli
esseri umani[14].
La Corte ha, poi, tracciato una distinzione tra tale tipologia di dispositivi ed altri software
che abbiano, ad esempio, l’unico scopo di archiviare, memorizzare e trasmettere dati del
paziente o si limitino ad indicare al medico curante il nome del medicinale generico
associato a quello che intende prescrivere, o, ancora, software destinati a segnalare le
controindicazioni: tali programmi non rientrerebbero, invece, nella definizione di
‘‘dispositivo medico’’.
5/13
Conseguentemente, programmi di nuova generazione, quali quelli sopra menzionati, che
analizzino grandi quantità di big data al fine di sviluppare le conoscenze scientifiche su
una certa malattia potrebbero non essere considerati ‘‘medical device’’ ai fini della
normativa eurounitaria, mentre la risposta potrebbe essere diversa nel caso in cui l’analisi
dei big data fosse volta all’assunzione di decisioni terapeutiche in relazione ad uno
specifico paziente.
Ad ogni modo, in relazione agli strumenti qualificati come medical device, l’art. 10, par. 16
afferma che “le persone fisiche o giuridiche possono chiedere un risarcimento per danni
causati da un dispositivo difettoso, ai sensi della normativa applicabile a livello
dell’Unione e del diritto nazionale”.
6/13
L’espressa qualificazione, da parte della legge Gelli-Bianco, della responsabilità della
struttura sanitaria come responsabilità per inadempimento non esclude di per sé che in
capo all’ente si possano configurare, qualora ne ricorrano i presupposti, concorrenti
responsabilità aquiliane, ex art. 2043 c.c. e ss.
Un primo riferimento può essere la responsabilità da cosa in custodia ex art. 2051 c.c.
per malfunzionamento delle strumentazioni e dei macchinari che costituiscono l’apparato
del quale essa si avvale.
Non può, poi, essere esclusa tout court l’applicabilità alla struttura sanitaria del regime di
responsabilità ex art. 2050 c.c., quantomeno limitatamente a talune specifiche tipologie di
attività. La giurisprudenza ha da tempo escluso la possibilità di interpretare la ‘‘ordinaria’’
attività diagnostica e terapeutica quale ‘‘attività pericolosa’’, le cui possibilità applicative in
ambito sanitario sono state tradizionalmente limitate alle sole prestazioni di medicina
trasfusionale implicanti l’impiego di sostanze ematiche o loro derivati[17].
La normativa interna di riferimento (Decreto Legislativo n° 206 del 2005, c.d. “Codice del
Consumo”) prevede, in recepimento della legislazione unionale, un regime di
responsabilità extracontrattuale in capo al produttore e al fornitore. A beneficiare di tale
sistema di protezione è il consumatore, utente finale del prodotto.
7/13
Il rinvio alla responsabilità da prodotto difettoso pare rassicurante, ma non tiene conto
delle possibili variabili che possano presentarsi. Nel caso di sistemi intelligenti può
rivelarsi difficile provare che il prodotto sia difettoso e dimostrare il nesso di
causalità tra difetto e danno, specie se il difetto dipenda da carenze della cyber-sicurezza
del prodotto.
Un’indicazione sembra derivare dal richiamato Regolamento sui dispositivi medici. L’art.
16 Reg. 2017/745 prevede che gli obblighi del produttore in tema di responsabilità si
applichino, in alcuni casi, al distributore, importatore o ad altra persona fisica o giuridica.
Ciò avviene nel caso in cui venga alterata la destinazione d’uso di un device già
distribuito nel mercato o entrato in servizio.
Dunque, alla luce di tali indicazioni, può distinguersi tra l’impiego di un device medico
senza che sia mutata la destinazione d’uso e impiego che comporti un mutamento di tale
destinazione d’uso. In quest’ultimo caso, il danno è allocabile in capo all’effettivo
utilizzatore del software. Ciò significa che dell’eventuale difetto risponde la struttura, la
quale ha concorso, mutando la destinazione di un device, ad aumentare il rischio di
insorgenza di un difetto del prodotto.
Per brevità, si ricorda che la struttura può rispondere sia contrattualmente, tanto per
responsabilità propria (art. 1218 c.c.) che per fatto altrui (1228 c.c.), che in via
extracontrattuale.
8/13
3. c) I casi in cui il medico faccia ricorso ai risultati predittivi o di analisi del
software per elaborare una diagnosi o impostare una terapia. In tale situazione,
può porsi il problema della scusabilità della condotta del sanitario: l’alternativa è se
lo stesso possa riporre un legittimo affidamento nel funzionamento del software o se
si richieda, in capo al sanitario, un dovere cautelare di “critica e revisione” del
pensiero artificiale.
4. d) I casi in cui il medico ponga in essere un errore esecutivo attraverso l’impiego
della robotica medica nell’esecuzione della prestazione terapeutica-trattamentale.
In relazione al caso sub a), la struttura sanitaria ricorre ad alcuni software attraverso i
quali monitora i parametri dei pazienti oppure automatizza la tenuta delle cartelle cliniche;
il difetto di manutenzione o la scorretta gestione del software, dal quale deriva un danno,
pare riconducibile ad una forma di responsabilità propria della struttura, ai sensi
dell’art. 1218 c.c. La condotta lesiva è infatti qualificabile quale inadempimento negoziale
dell’obbligo di protezione e di corretta esecuzione della prestazione assunta col contratto
di spedalità.
In merito all’ipotesi sub b) può accadere che le strutture sanitarie, per l’addestramento
dei software, ricorrano a personale tecnico qualificato oppure a consulenti esterni rispetto
alla struttura. In un caso simile si pone il problema dell’applicabilità dell’art. 7 L. Gelli-
Bianco. Il soggetto tecnico in questione potrebbe non essere qualificabile quale
“esercente la professione sanitaria”. La struttura risponderebbe comunque ai sensi della
generale fattispecie di cui all’art. 1228 c.c., poiché non v’è dubbio che la norma faccia
generico riferimento ai terzi, e non alle sole figure dei sanitari normativamente qualificate.
Nello specifico, una peculiare questione riguarda l’ipotesi sub c), ovvero la scusabilità
della condotta del medico, il quale abbia adottato una decisione sulla base delle
indicazioni predittive provenienti da un software: occorre domandarsi se l’affidamento
9/13
del medico nello strumento possa essere sempre legittimo oppure se il medico sia
tenuto ad un’attività di critica e di revisione della decisione dello strumento.
L’adesione alla prima o alla seconda conclusione non è questione di poco conto, dal
momento che la soluzione più favorevole per il medico comporterà una riduzione del
ventaglio dei danni risarcibili, mentre la soluzione restrittiva avrà l’effetto opposto, con
inevitabili ripercussioni sulla celerità del trattamento: si pensi, infatti, al medico che, di
volta in volta, sia chiamato ad analizzare possibili esiti alternativi, peraltro ripercorrendo a
ritroso il “ragionamento” dell’algoritmo, attività complessa e che può esulare dalle
competenze del medico.
Ciò è coerente con una serie di indici normativi. Anzitutto, la Risoluzione del Parlamento
europeo recante ‘‘Raccomandazioni alla Commissione concernenti norme di diritto civile
sulla robotica’’ del 16 febbraio 2017 postula l’adesione al modello dello “human in
command approach”: le indicazioni degli strumenti intelligenti non possono sostituire la
decisione umana, la quale, dunque, non può utilizzare il software quale elemento di
abdicazione dei propri obblighi e delle proprie responsabilità.
Inoltre, in relazione alla responsabilità penale, l’art. 6 L. Gelli-Gallo afferma che non
esclude la colpa il pedissequo rispetto delle linee guida accreditate, qualora si siano
rilevate inadeguate al caso concreto. Sebbene la norma non sia direttamente applicabile
alla responsabilità civile, la stessa individua un principio di razionalità, insito, peraltro,
nello stesso criterio della ragionevolezza e della buona fede: il medico non può andare
esente da responsabilità qualora, dal caso concreto, emergano ragioni per le quali il
risultato del software vada corretto o rimeditato.
Infine, in relazione all’ipotesi sub d), si è in presenza non di un errore decisionale del
medico, ma di un errore esecutivo occasionato da uno scorretto impiego del macchinario.
Il danno dovuto ad un malfunzionamento, e non ad un errore esecutivo del medico,
sembra rientrare, prima facie, nell’ambito di cui all’art. 2051. Tuttavia, la norma è
10/13
un’ipotesi di responsabilità extracontrattuale, mentre il danno occorso al paziente si
verifica nell’esecuzione della prestazione del contratto di spedalità. Pertanto, l’errore
medico commesso attraverso l’impiego strumento di A.I. rientra in un’ordinaria ipotesi di
danno da malpractice medica, come tale sussumibile nell’alveo dell’ordinaria
responsabilità della struttura sanitaria.
7. Conclusioni critiche
Tuttavia, la Cassazione ritiene che nel diverso territorio del facere professionale la
causalità materiale debba essere provata dal creditore. Ciò poiché la prestazione
oggetto dell’obbligazione non è la guarigione dalla malattia, ma il perseguimento delle
leges artis nella cura dell’interesse del creditore. Allo stesso tempo, l’interesse primario
del creditore consiste nel risultato favorevole per la propria salute, non nel mero
impiego della diligenza professionale.
Il danno evento, allora, consiste nella lesione dell’interesse primario (lesione dell’integrità
fisica), non nel mero inadempimento dell’obbligo di diligenza. Dunque, in altri termini, vi è
scissione tra l’oggetto dell’obbligazione (diligenza) e l’interesse leso
dall’inadempimento: il danno evento consiste nella lesione dell’integrità fisica.
Tale indirizzo giurisprudenziale pone un freno alla generale tendenza in atto nel settore
della responsabilità civile. La direzione è quella di oggettivare le ipotesi di responsabilità
che concernono l’esercizio di attività rischiose, improntate ad una gestione di tipo
11/13
imprenditoriale. L’approdo ai lidi della responsabilità contrattuale “classica” consentirebbe
l’adeguato assorbimento dei rischi legati all’impiego, nel settore medico, di strumenti di
intelligenza artificiale, poiché il creditore potrebbe limitarsi ad allegare l’inadempimento,
non dovendo, invece, ricercare la prova di un nesso causale di difficile accertamento,
specie nel settore dell’impiego di software intelligenti.
[1] Cfr. Ugo Ruffolo, L’Intelligenza artificiale in sanità: dispositivi medici, responsabilità e
‘‘potenziamento’’, «Giurisprudenza Italiana, Febbraio 2021».
[2] Cfr. Giovanni Pasceri, Intelligenza Artificiale in Radiologia, «Documento SIRM», 2020.
[3] Cfr. Giovanni Pasceri, Intelligenza Artificiale in Radiologia, «Documento SIRM», 2020.
[4] Cfr. Ian A.Scott, IA. Machine Learning and Evidence-Based Medicine, «Annals of
Internal Medicine», pag. 169:44- 46, 2018.
[6] Cfr. Goddard K, Roudsari A, Wyatt JC, Automation bias: a systematic review of
frequency, effect mediators, and mitigators, «Journal of the American Medical Informatics
Association», 2011.
[8] Cfr. Povyakalo AA, Alberdi E, Strigini L, Ayton P., How to discriminate between
computer-aided and computerhindered decisions: a case study in mammography,
«Medical Decision Making», 2013.
[9] Kalan, S. et al., History of robotic surgery, «Journal of Robotic Surgery 4.3», 2010, pp.
141–147.
12/13
[10] Sitti, M., Micro-and nano-scale robotics, «American Control Conference», 2004, pp.
1–8.
[11] Cfr. Mauro colombo, Renzo Rozzini, Intelligenza artificiale in medicina: storia,
attualità e futuro, «Psicogeriatria», 2019.
[13] Per un esame della risoluzione del Parlamento del 2017, si rinvia ad Andrea Amidei,
Robotica intelligente e responsabilità: profili e prospettive del quadro normativo europeo,
«Intelligenza Artificiale e responsabilità», pag. 63 e segg.
[15] Corte di Giustizia UE, caso Snitem – Syndicat national de l’industrie des technologies
medicales, C-329/16.
[16] Cfr. Andrea Amidei, Le responsabilità, per fatto proprio e degli ausiliari, della struttura
sanitaria, «Giurisprudenza Italiana», Febbraio 2021.
[17] Cfr. Andrea Amidei, Le responsabilità, per fatto proprio e degli ausiliari, della struttura
sanitaria, «Giurisprudenza Italiana», Febbraio 2021.
[18] Sul tema delle implicazioni dell’impiego di sistemi di Intelligenza Artificiale in ambito
sanitario, cfr. Savini Nicci, Vetrugno, Intelligenza artificiale e responsabilità nel settore
sanitario, in Ruffolo (a cura di), Intelligenza Artificiale – Il diritto, i diritti, l’etica, Milano,
2020, 601 e segg.; cfr. altresì Ruffolo, Artificial Intelligence e nuove responsabilità nel
settore medico e farmaceutico, in Ruffolo (a cura di), La nuova responsabilità medica, cit.,
237 e segg.; Perlingieri, Responsabilità civile e robotica medica, in Tecnologie e Dir.,
2020, 1, 161 e segg.
redazione
Share
13/13