Sei sulla pagina 1di 13

Responsabilità medica e intelligenza artificiale nel

diritto unionale e italiano


iusinitinere.it/responsabilita-medica-e-intelligenza-artificiale-nel-diritto-unionale-e-italiano-40042

4 ottobre 2021

Responsabilità medica e intelligenza artificiale nel diritto unionale e italiano

a cura di Francesco Giuseppe Murone

Indice: 1. Il sapere umano e il sapere artificiale – 2. I rischi e le opportunità da impiego dei


software intelligenti in campo medico – 3. Attualità e prospettive della responsabilità
medica nel diritto UE – 4. La corporate liability della struttura sanitaria – 5. Il danno da
prodotto difettoso – 6. Il danno da malpractice medica – 7. Conclusioni critiche

1. Il sapere umano e il sapere artificiale

L’impiego dell’artificial intelligence (A.I.) nelle attività tradizionali è destinato ad incidere


trasversalmente sulle modalità di gestione e di erogazione di beni e servizi.
L’introduzione di software “intelligenti” non comporta una mera automatizzazione dei
processi organizzativi, ma conduce a disruptive innovations nelle modalità di
organizzazione delle attività imprenditoriali e istituzionali.

A fini esemplificativi, con il termine Artificial Intelligence “ci si riferisce a software o


programmi capaci di porre in essere con successo, e con un grado più o meno elevato di
autonomia, operazioni simili all’attività umana di apprendimento e di assunzione di
decisioni al fine del raggiungimento di specifici obiettivi, grazie all’impiego di tecnologie
fondate su processi di machine learning, di deep learning e dell’utilizzo di reti neurali
(neural networks) programmate per funzionare sul modello del cervello umano”.[1]

L’apprendimento umano si basa sulla percezione degli stimoli provenienti dell’ambiente


esterno, i quali consentono la memorizzazione e l’elaborazione delle strategie di reazione
agli stimoli esogeni[2]. Dall’intreccio delle esperienze e delle percezioni egli è in grado di
migliorare la risposta agli input mediante un processo di apprendimento condizionato da
una serie di fattori sociali, economici, culturali e ambientali: non è possibile, dunque,
individuare un modello predittivo delle decisioni umane standardizzato[3], poiché i
processi cognitivi variano da individuo a individuo e da contesto in contesto.

È per tale motivo che il Codice Civile fa riferimento, per valutarne la correttezza della
condotta del debitore, al concetto di “media”, ovvero dell’uomo medio, buon padre di
famiglia e, nelle professioni, alla diligenza del professionista medio. La condotta del
debitore è analizzata, dunque, in riferimento ad un parametro standardizzato,
attendibile secondo una ordinaria verificazione statistica.

1/13
L’impiego dell’intelligenza artificiale riduce i rischi legati all’imprevedibilità dell’agire
umano e attenua le conseguenze dannose dovute alla manualità della prestazione o
della tecnica adottata. Le potenzialità dell’impiego di strumenti di intelligenza artificiale si
colgono maggiormente in relazione ad attività complesse connotate da un elevato grado
di rischio. Si pensi, in proposito, all’impiego crescente di software di machine learning o di
robot in relazione all’attività medica.

Intelligenza artificiale e scienza medica rappresentano due saperi differenti. Il machine


learnign è una sfida al tradizionale approccio dell’epidemiologia clinica sulla quale si basa
la Evidence Based Medicine[4]: mentre il primo si fonda sull’interazione tra algoritmi e
dati che vengono acquisiti dal software, la seconda si basa su relazioni eziologiche tra
fatti percepibili ed osservabili con i sensi.

La medicina basata sulle evidenze: a) utilizza metodi analitici; b) si basa sul confronto tra
dati per dedurre il nesso di causalità; c) utilizza minori volumi di dati.

L’apprendimento automatico, invece: a) utilizza un maggior volume di dati; b) opera


attraverso algoritmi basati sui dati; c) ha un limitato potere esplicativo: l’algoritmo può
identificare le correlazioni fra migliaia di variabili, ma non evidenzia il nesso di causalità.
Si potrebbe dire, dunque, che la A.I.‘‘ragiona’’ per inferenza statistica, e non per
deduzione causale[5].

2. I rischi e le opportunità da impiego dei software intelligenti in campo medico

Ad avviso di parte della scienza medica, una delle maggiori criticità è costituita dal rischio
che nel tempo i medici possano sviluppare un ingiustificato ed eccessivo affidamento
nelle capacità dell’automazione (c.d. over-reliance)[6].

Sorge così il rischio che derivi una dipendenza (overdependence) dai sistemi di A.I. con
conseguente probabile dequalificazione (deskilling), dovuta alla progressiva
automatizzazione dell’attività medica[7].

Come riporta uno studio specialistico, “in letteratura medica sono già presenti alcuni
esempi di questo fenomeno: in un’analisi condotta da parte di un gruppo di ricercatori
della City University of London sulla lettura di 180 mammogrammi da parte di 50
professionisti, è stata documentata una riduzione della sensibilità diagnostica del
14,5% per il rilievo di cancro mammario nei medici più esperti, quando a questi venivano
presentate immagini di difficile lettura corredate con l’interpretazione da parte del
computer, mentre solo un aumento dell’1,6% della sensibilità diagnostica è stato rilevato
grazie al supporto del computer nel sottogruppo di medici meno esperti quando a questi
venivano presentati casi di più semplice interpretazione”[8].

Nonostante le rilevate criticità, i continui progressi conducono a potenzialità sempre


nuove e adattabili alle situazioni concrete, anche in contesti patologici ed eccezionali.

2/13
Si pensi ai cambiamenti demografici in corso, a causa dei quali i sistemi sanitari sono
costretti a fornire assistenza a una popolazione che invecchia. Ciò anche alla luce
dell’attuale emergenza pandemica: la vicinanza degli operatori sanitari alla popolazione
anziana, nel corso di una pandemia, è causa di potenziale trasmissione di agenti
patogeni.

Si pensi, ancora, alla chirurgia robotica, la quale consente l’esecuzione di interventi di


grande precisione, specie di microchirurgia, ove si prevede l’applicazione di tecniche ad
altissima precisione su superfici corporee molto ristrette e l’uso di speciali microscopi
operatori.[9]

Infine, a titolo esemplificativo, si considerino le nanotecnologie applicate alla chirurgia,


che permettono di introdurre nel corpo del paziente sistemi di monitoraggio, diagnosi o
intervento, coordinabili da un sistema remoto.[10].

Occorre, inoltre, considerare che il software può essere dotato di algoritmi in grado di far
migliorare il comportamento della macchina, di modo da poter operare in contesti per
i quali i programmatori non possono, a priori, prevedere tutte le possibilità di sviluppo e i
contesti in cui il sistema si trova a operare[11].

Lo sviluppo dell’A.I. reca con sé un altro fenomeno, quello della creazione di imponenti
masse di dati, i quali vengono custoditi e adoperati per finalità che esulano dalla sola
cura del singolo paziente. Tale massa di dati richiede specifiche competenze nel settore
della gestione e della protezione degli stessi e spesso vengono adoperati appositi
software intelligenti capaci di ordinare e ricercare informazioni, attività altrimenti gravosa
per l’operatore tecnico.

A titolo esemplificativo, negli USA è stato approvato l’Health Information Technology for
Clinical Health (HITECH) Act, strumento che ha consentito l’impiego di più di 35 miliardi
di dollari di incentivi rivolti al settore medico per lo sviluppo di un sistema elettronico di
gestione e comunicabilità delle cartelle cliniche[12].

3. Attualità e prospettive della medical liability nel diritto UE

La regolamentazione della responsabilità da impiego sanitario dell’A.I. trova espressa


attenzione nel diritto comunitario. Con la Risoluzione del Parlamento europeo recante
‘‘Raccomandazioni alla Commissione concernenti norme di diritto civile sulla
robotica’’ del 16 febbraio 2017, la Commissione era stata destinataria di un invito ad
elaborare una proposta di direttiva volta a regolare in modo uniforme l’impiego di robotica
‘‘intelligente’’, anche con riferimento al settore sanitario.

Le caratteristiche essenziali della responsabilità da impiego di robot nel settore medico


presentano, a parere della Risoluzione, le seguenti caratteristiche:

3/13
1. a) non dovrebbe in alcun modo limitare il tipo o l’entità dei danni che possono
essere risarciti, né dovrebbe limitare le forme di risarcimento che possono essere
offerte alla parte lesa per il semplice fatto che il danno è provocato da un soggetto
non umano;
2. b) necessità di un’analisi specifica dei rischi di danni
3. c) l’approccio di gestione dei rischi non si concentra sulla persona “che ha agito con
negligenza“, bensì sulla persona che, in determinate circostanze, è in grado di
minimizzare i rischi e affrontare l’impatto negativo;
4. d) la responsabilità dovrebbe essere proporzionale all’effettivo livello di istruzioni
impartite al robot e al grado di autonomia di quest’ultimo, di modo che quanto
maggiore è la capacità di apprendimento o l’autonomia di un robot e quanto
maggiore è la durata della formazione di un robot, tanto maggiore dovrebbe
essere la responsabilità del suo formatore;
5. e) una possibile soluzione al problema della complessità dell’attribuzione della
responsabilità per il danno causato da robot sempre più autonomi potrebbe essere
un regime di assicurazione obbligatorio.

Viene posto, inoltre, l’importante principio dello ‘‘human in command approach’’, in virtù
del quale si afferma la necessità, anche in ambito sanitario, che ‘‘la programmazione
iniziale di cura e la scelta finale sull’esecuzione [spettino, n.d.r.] sempre ad un chirurgo
umano’’[13], con ciò scongiurando la possibilità di decisioni fondate esclusivamente
sul contributo degli strumenti di intelligenza artificiale.

L’interesse dell’Unione Europea verso l’A.I. trova ulteriore spazio nel Libro Bianco della
Commissione Europea sull’intelligenza artificiale del 19.2.2020, nel quale si riporta
che uno dei principali problemi relativi all’impiego dell’AI è l’incertezza in merito
all’attribuzione delle responsabilità tra i diversi operatori economici lungo la catena di
approvvigionamento.

La Commissione Europea, del resto, è pienamente cosciente di tali complessità. Afferma,


infatti, che il comportamento autonomo che mostrano alcuni sistemi di A.I. durante il loro
ciclo di vita può comportare modifiche significative dei prodotti, che a loro volta hanno
ripercussioni sulla sicurezza e possono rendere necessaria una nuova valutazione dei
rischi.

Lo sviluppo e l’assemblamento di strumenti intelligenti o di software spesso richiede il


concorso di più soggetti: sviluppatori, produttori, fornitori, trainer. Le caratteristiche
delle tecnologie digitali possono rendere meno efficaci i sistemi di responsabilità da
prodotto difettoso. Alla luce di tali ragioni, la Commissione, pur non fornendo indicazioni
puntuali, non esclude la necessità di un quadro ad hoc della responsabilità da A.I.

Le esortazioni ad un intervento sul tema sono state recentemente reiterate dal


Parlamento europeo con la Risoluzione del 20 ottobre 2020 recante ‘‘Raccomandazioni
alla Commissione su un regime di responsabilità civile per l’intelligenza artificiale’’;
in tale occasione, il Parlamento ha sostenuto la necessità di ‘‘un quadro giuridico

4/13
orizzontale e armonizzato, basato su principi comuni, per garantire la certezza giuridica,
fissare norme uniformi in tutta l’Unione e tutelare efficacemente i valori europei e i diritti
dei cittadini’’.

Il Parlamento ritiene che non sia necessaria una revisione completa dei regimi di
responsabilità correttamente funzionanti, ma che la capacità di modifica mediante
aggiornamenti, l’autoapprendimento e la potenziale autonomia dei sistemi di A.I., come
pure la molteplicità degli attori coinvolti nel settore, rappresentino comunque una sfida
significativa per l’efficacia dei quadri normativi dell’Unione e nazionali in materia di
responsabilità.

Accanto alla prefigurata necessità di ‘‘rivedere’’ la Direttiva in materia di product liability


‘‘per adattarla al mondo digitale’’, la Risoluzione, recependo le suggestioni provenienti dal
Libro Bianco in materia di Intelligenza Artificiale, suggerisce che le nuove norme unionali
in materia di responsabilità da A.I. siano differenziate a seconda del livello e delle
tipologie di rischio che l’utilizzo dei sistemi in questione comporta. Ad esempio, per un
sistema di IA che implica un rischio intrinseco elevato appare ragionevole istituire un
regime di responsabilità oggettiva.

L’analisi dell’impatto delle tecnologie di intelligenza artificiale sulla responsabilità del


medico deve altresì tener conto del Regolamento (UE) 2017/745 relativo ai dispositivi
medici. La precedente Dir. 93/42/CEE prevedeva che per ‘‘medical device’’ dovesse
intendersi ogni strumento o apparato impiegato a fini di diagnosi, prevenzione,
monitoraggio o cura di malattie.

La Corte di Giustizia dell’Unione Europea ha, poi, confermato che, ai fini della normativa
in esame, è da considerarsi ‘‘dispositivo medico’’ ogni device al quale il produttore
abbia attribuito uno scopo di natura ‘‘medico-sanitaria’’, intendendosi per tale la finalità
di ristorare, correggere o modificare in modo apprezzabile funzioni fisiologiche degli
esseri umani[14].

Sulla base di tale ampia definizione, la Corte di Giustizia ha confermato l’applicabilità


delle disposizioni in materia di medical device al software, ancorché quest’ultimo non
agisca ‘‘direttamente’’ sul corpo umano. Si è, così, affermata, a titolo esemplificativo,
l’applicabilità del regime in esame ad un programma finalizzato al controllo incrociato dei
dati personali del paziente con quelli concernenti l’impiego di medicinali al fine di fornire
automaticamente eventuali controindicazioni, interazioni tra farmaci e posologie
eccessive; programma ritenuto costituire un ‘‘dispositivo medico’’ nonostante esso non
agisse ‘‘direttamente nel o sul corpo umano’’ [15].

La Corte ha, poi, tracciato una distinzione tra tale tipologia di dispositivi ed altri software
che abbiano, ad esempio, l’unico scopo di archiviare, memorizzare e trasmettere dati del
paziente o si limitino ad indicare al medico curante il nome del medicinale generico
associato a quello che intende prescrivere, o, ancora, software destinati a segnalare le
controindicazioni: tali programmi non rientrerebbero, invece, nella definizione di
‘‘dispositivo medico’’.

5/13
Conseguentemente, programmi di nuova generazione, quali quelli sopra menzionati, che
analizzino grandi quantità di big data al fine di sviluppare le conoscenze scientifiche su
una certa malattia potrebbero non essere considerati ‘‘medical device’’ ai fini della
normativa eurounitaria, mentre la risposta potrebbe essere diversa nel caso in cui l’analisi
dei big data fosse volta all’assunzione di decisioni terapeutiche in relazione ad uno
specifico paziente.

Ad ogni modo, in relazione agli strumenti qualificati come medical device, l’art. 10, par. 16
afferma che “le persone fisiche o giuridiche possono chiedere un risarcimento per danni
causati da un dispositivo difettoso, ai sensi della normativa applicabile a livello
dell’Unione e del diritto nazionale”.

4. La corporate liability della struttura sanitaria

L’art. 7, c. 1 L. Gelli-Bianco prevede che “la struttura sanitaria o sociosanitaria pubblica o


privata che, nell’adempimento della propria obbligazione, si avvalga dell’opera di
esercenti la professione sanitaria, anche se scelti dal paziente e ancorché non dipendenti
della struttura stessa, risponde, ai sensi degli articoli 1218 e 1228 del codice civile, delle
loro condotte dolose o colpose”.

La norma individua un regime sostanzialmente unitario della responsabilità medica.


Infatti, salvo il caso dell’art. 7, c. 3, nel quale il medico risponde nei confronti del paziente
a titolo extracontrattuale, ogni condotta dannosa posta in essere dal personale sanitario
incardinato nell’organizzazione di una struttura sanitaria pubblica o privata è imputabile
alla persona giuridica e non al singolo operatore.

La L. n. 24/2017 (legge Gelli-Bianco) ha reso le strutture sanitarie il principale fulcro


del contenzioso in materia di medical malpractice, con un modello di responsabilità
dell’ente improntato a criteri di allocazione del rischio omologhi a quelli che
governano la più ampia materia della responsabilità d’impresa[16]. Non pare casuale
che “l’oggettivizzazione” della responsabilità del personale sanitario coincida con
l’emersione e lo sviluppo dell’impiego di strumenti di AI nel rapporto medico-paziente.

L’inadempimento della struttura alle obbligazioni ‘‘proprie’’ assunte verso il paziente


determina responsabilità ‘‘diretta’’ dell’ente nei confronti di quest’ultimo, anche in
assenza di errore medico. Il riferimento è, in estrema sintesi, ai casi di carenze o
inefficienze strutturali che impediscano la corretta esecuzione della prestazione di cura. In
tali casi la responsabilità dell’ente è, dunque, svincolata dall’accertamento di una
condotta colposa dei suoi ‘ausiliari’.

Diversa è, invece, l’ipotesi di responsabilità della struttura per i danni occorsi al


paziente in conseguenza dell’illecito del medico del quale la struttura stessa si avvale,
delle cui ‘‘condotte dolose o colpose’’ l’ente risponde ai sensi dell’art. 1228 c.c., in ragione
del rapporto tra preponente ed ausiliario.

6/13
L’espressa qualificazione, da parte della legge Gelli-Bianco, della responsabilità della
struttura sanitaria come responsabilità per inadempimento non esclude di per sé che in
capo all’ente si possano configurare, qualora ne ricorrano i presupposti, concorrenti
responsabilità aquiliane, ex art. 2043 c.c. e ss.

Un primo riferimento può essere la responsabilità da cosa in custodia ex art. 2051 c.c.
per malfunzionamento delle strumentazioni e dei macchinari che costituiscono l’apparato
del quale essa si avvale.

Non può, poi, essere esclusa tout court l’applicabilità alla struttura sanitaria del regime di
responsabilità ex art. 2050 c.c., quantomeno limitatamente a talune specifiche tipologie di
attività. La giurisprudenza ha da tempo escluso la possibilità di interpretare la ‘‘ordinaria’’
attività diagnostica e terapeutica quale ‘‘attività pericolosa’’, le cui possibilità applicative in
ambito sanitario sono state tradizionalmente limitate alle sole prestazioni di medicina
trasfusionale implicanti l’impiego di sostanze ematiche o loro derivati[17].

Un ripensamento di tale impostazione potrebbe, in prospettiva, derivare anche quale


conseguenza del pervasivo e sempre crescente impiego di applicazioni di strumenti di
A.I.[18].

Il quadro delle possibili fattispecie dannose è eterogeneo, poiché molteplici e differenti


sono le condotte astrattamente configurabili in relazione alle vaste opportunità di
impiego che i software consentono. Si pensi, ad esempio, ai software che permettono alla
struttura di monitorare lo stato dei pazienti; a quelli che raccolgono e analizzano dati al
fine di individuare un miglior risultato terapeutico; quelli che coadiuvano il sanitario, quali i
robots, nello svolgimento della prestazione medica: occorre chiedersi se e in che modo la
diversa funzione del software incida sulla responsabilità del sanitario.

Nell’analisi puntuale dell’applicazione delle disposizioni sulla responsabilità medica pare


allora opportuno distinguere tra due macro-fattispecie.

1. a) Nella prima, il danno viene cagionato al paziente a causa di un difetto


“intrinseco” del software, dovuto ad un difetto nella fase dello sviluppo o della
implementazione.
2. b) Nella seconda, il danno viene cagionato da un software o da uno strumento
intelligente, il quale non presenti alcun difetto di produzione.

5. Il danno da prodotto difettoso

In relazione alla prima ipotesi, sembra applicabile la disciplina della responsabilità


extracontrattuale da prodotto difettoso.

La normativa interna di riferimento (Decreto Legislativo n° 206 del 2005, c.d. “Codice del
Consumo”) prevede, in recepimento della legislazione unionale, un regime di
responsabilità extracontrattuale in capo al produttore e al fornitore. A beneficiare di tale
sistema di protezione è il consumatore, utente finale del prodotto.

7/13
Il rinvio alla responsabilità da prodotto difettoso pare rassicurante, ma non tiene conto
delle possibili variabili che possano presentarsi. Nel caso di sistemi intelligenti può
rivelarsi difficile provare che il prodotto sia difettoso e dimostrare il nesso di
causalità tra difetto e danno, specie se il difetto dipenda da carenze della cyber-sicurezza
del prodotto.

Ulteriore problematica è quella relativa alla configurabilità di una responsabilità delle


figure professionali che “addestrano” il software.

Un’indicazione sembra derivare dal richiamato Regolamento sui dispositivi medici. L’art.
16 Reg. 2017/745 prevede che gli obblighi del produttore in tema di responsabilità si
applichino, in alcuni casi, al distributore, importatore o ad altra persona fisica o giuridica.
Ciò avviene nel caso in cui venga alterata la destinazione d’uso di un device già
distribuito nel mercato o entrato in servizio.

Si prevede, tuttavia, che alcuna responsabilità si configuri in capo ai soggetti che


montano o adattano per un paziente specifico un dispositivo già presente sul mercato
senza modificarne la destinazione d’uso.

Dunque, alla luce di tali indicazioni, può distinguersi tra l’impiego di un device medico
senza che sia mutata la destinazione d’uso e impiego che comporti un mutamento di tale
destinazione d’uso. In quest’ultimo caso, il danno è allocabile in capo all’effettivo
utilizzatore del software. Ciò significa che dell’eventuale difetto risponde la struttura, la
quale ha concorso, mutando la destinazione di un device, ad aumentare il rischio di
insorgenza di un difetto del prodotto.

6. Il danno da malpractice medica

La seconda macro-categoria di danni individuata nel par. 4 è rappresenta dai pregiudizi


che occorrono al paziente dall’impiego di un prodotto medico non difettoso. In relazione a
tali ipotesi, sovviene la possibile responsabilità della struttura sanitaria.

Per brevità, si ricorda che la struttura può rispondere sia contrattualmente, tanto per
responsabilità propria (art. 1218 c.c.) che per fatto altrui (1228 c.c.), che in via
extracontrattuale.

Possono distinguersi una serie di fattispecie.

1. a) I casi nei quali la struttura sanitaria impiega determinati software per


monitorare lo stato di salute dei pazienti: si pone il problema dell’individuazione
del soggetto responsabile del danno cagionato a causa di un difetto di
manutenzione e di mancato tempestivo intervento.
2. b) Il cattivo addestramento del software da parte della struttura. Il software non
presenta un difetto intrinseco di sviluppo o produzione; tuttavia, a causa di una
errata configurazione o aggiornamento dello stesso, occorre un danno al paziente.

8/13
3. c) I casi in cui il medico faccia ricorso ai risultati predittivi o di analisi del
software per elaborare una diagnosi o impostare una terapia. In tale situazione,
può porsi il problema della scusabilità della condotta del sanitario: l’alternativa è se
lo stesso possa riporre un legittimo affidamento nel funzionamento del software o se
si richieda, in capo al sanitario, un dovere cautelare di “critica e revisione” del
pensiero artificiale.
4. d) I casi in cui il medico ponga in essere un errore esecutivo attraverso l’impiego
della robotica medica nell’esecuzione della prestazione terapeutica-trattamentale.

In relazione al caso sub a), la struttura sanitaria ricorre ad alcuni software attraverso i
quali monitora i parametri dei pazienti oppure automatizza la tenuta delle cartelle cliniche;
il difetto di manutenzione o la scorretta gestione del software, dal quale deriva un danno,
pare riconducibile ad una forma di responsabilità propria della struttura, ai sensi
dell’art. 1218 c.c. La condotta lesiva è infatti qualificabile quale inadempimento negoziale
dell’obbligo di protezione e di corretta esecuzione della prestazione assunta col contratto
di spedalità.

In merito all’ipotesi sub b) può accadere che le strutture sanitarie, per l’addestramento
dei software, ricorrano a personale tecnico qualificato oppure a consulenti esterni rispetto
alla struttura. In un caso simile si pone il problema dell’applicabilità dell’art. 7 L. Gelli-
Bianco. Il soggetto tecnico in questione potrebbe non essere qualificabile quale
“esercente la professione sanitaria”. La struttura risponderebbe comunque ai sensi della
generale fattispecie di cui all’art. 1228 c.c., poiché non v’è dubbio che la norma faccia
generico riferimento ai terzi, e non alle sole figure dei sanitari normativamente qualificate.

Peraltro, laddove il professionista esterno non sia qualificabili quale “esercente la


professione sanitaria”, si pone il problema dell’applicabilità dell’art. 9 L. Gelli-Bianco
all’extranus alla struttura. La norma prevede un peculiare regime dell’azione di rivalsa in
favore del personale sanitario, limitando la possibilità della struttura di rivalersi sul
patrimonio dell’esercente la professione sanitaria ai soli casi di dolo o colpa grave.

La problematica in parola rende evidente la necessità di un aggiornamento della


disciplina della responsabilità medica che tenga conto anche del professionista che, pur
non qualificabile quale sanitario, in concreto svolga un’attività che vada a favorire
l’esercizio dell’attività medica, con conseguente necessità che benefici anch’esso della
più favorevole disciplina di cui all’art. 9 L. Gelli-Gallo.

Le rimanenti ipotesi sub) c) e sub d) fanno riferimento a situazioni relative ad errori


decisionali ed esecutivi posti in essere dal personale medico. In tali casi, il medico
adopera direttamente la tecnologia ai fini della diagnosi o della cura. Alcun dubbio
sussiste in merito all’applicazione del regime di cui all’art. 7, c. 1, L. Gelli-Gallo in casi
simili.

Nello specifico, una peculiare questione riguarda l’ipotesi sub c), ovvero la scusabilità
della condotta del medico, il quale abbia adottato una decisione sulla base delle
indicazioni predittive provenienti da un software: occorre domandarsi se l’affidamento

9/13
del medico nello strumento possa essere sempre legittimo oppure se il medico sia
tenuto ad un’attività di critica e di revisione della decisione dello strumento.

L’adesione alla prima o alla seconda conclusione non è questione di poco conto, dal
momento che la soluzione più favorevole per il medico comporterà una riduzione del
ventaglio dei danni risarcibili, mentre la soluzione restrittiva avrà l’effetto opposto, con
inevitabili ripercussioni sulla celerità del trattamento: si pensi, infatti, al medico che, di
volta in volta, sia chiamato ad analizzare possibili esiti alternativi, peraltro ripercorrendo a
ritroso il “ragionamento” dell’algoritmo, attività complessa e che può esulare dalle
competenze del medico.

Per risolvere la questione occorre richiamare il criterio della correttezza: il principio di


eguaglianza e di ragionevolezza esclude alcun rilievo a meccanismi automatici di
esclusione della responsabilità. Non si potrebbe, cioè, ritenere vigente in via assoluta un
legittimo affidamento per il solo fatto che il medico si interfacci con un software.

Ciò è coerente con una serie di indici normativi. Anzitutto, la Risoluzione del Parlamento
europeo recante ‘‘Raccomandazioni alla Commissione concernenti norme di diritto civile
sulla robotica’’ del 16 febbraio 2017 postula l’adesione al modello dello “human in
command approach”: le indicazioni degli strumenti intelligenti non possono sostituire la
decisione umana, la quale, dunque, non può utilizzare il software quale elemento di
abdicazione dei propri obblighi e delle proprie responsabilità.

Inoltre, in relazione alla responsabilità penale, l’art. 6 L. Gelli-Gallo afferma che non
esclude la colpa il pedissequo rispetto delle linee guida accreditate, qualora si siano
rilevate inadeguate al caso concreto. Sebbene la norma non sia direttamente applicabile
alla responsabilità civile, la stessa individua un principio di razionalità, insito, peraltro,
nello stesso criterio della ragionevolezza e della buona fede: il medico non può andare
esente da responsabilità qualora, dal caso concreto, emergano ragioni per le quali il
risultato del software vada corretto o rimeditato.

Sulla questione si innesta un’altra problematica, relativa al rilievo da attribuire alla


limitazione della responsabilità ai sensi dell’art. 2236 c.c. La norma prevede che, nel caso
di esecuzione di prestazioni di particolare difficoltà, il professionista non risponda dei
danni cagionati per colpa lieve. Occorre chiedersi se l’implementazione di software
nell’attività medica sia idonea ad escludere la difficoltà di una prestazione, poiché viene
semplificata l’attività diagnostica, ovvero se aggravi la difficoltà della stessa. Anche in tale
situazione non è possibile individuare una soluzione univoca: alcuni software possono
semplificare e automatizzare talune attività e ridurre i rischi connessi a talune prestazioni;
in altri casi, tuttavia, per l’elevato rischio intrinseco, possono introdurre ulteriori difficoltà
prima non sussistenti.

Infine, in relazione all’ipotesi sub d), si è in presenza non di un errore decisionale del
medico, ma di un errore esecutivo occasionato da uno scorretto impiego del macchinario.
Il danno dovuto ad un malfunzionamento, e non ad un errore esecutivo del medico,
sembra rientrare, prima facie, nell’ambito di cui all’art. 2051. Tuttavia, la norma è

10/13
un’ipotesi di responsabilità extracontrattuale, mentre il danno occorso al paziente si
verifica nell’esecuzione della prestazione del contratto di spedalità. Pertanto, l’errore
medico commesso attraverso l’impiego strumento di A.I. rientra in un’ordinaria ipotesi di
danno da malpractice medica, come tale sussumibile nell’alveo dell’ordinaria
responsabilità della struttura sanitaria.

7. Conclusioni critiche

A conclusione dell’analisi riportata, occorre richiamare, per tratti essenziali, il recente


indirizzo che va consolidandosi in giurisprudenza sulla natura della responsabilità da
attività medica[19].

Distinzione esemplificativa tra responsabilità da inadempimento e responsabilità


extracontrattuale risiede sul piano dell’onere probatorio. La responsabilità da
inadempimento richiede che il creditore provi il titolo e la causalità giuridica (quantum
debeatur), ma non anche la causalità materiale, ovvero il fatto dell’inadempimento, il
quale si presume una volta provato il titolo.

Sarebbe consequenziale, allora, che in relazione alla responsabilità sanitaria, di natura


contrattuale, il creditore non sia tenuto alla prova del fatto dell’inadempimento, spesso di
difficile accertamento, come nel caso di danni occorsi a causa di strumenti di intelligenza
artificiale.

Tuttavia, la Cassazione ritiene che nel diverso territorio del facere professionale la
causalità materiale debba essere provata dal creditore. Ciò poiché la prestazione
oggetto dell’obbligazione non è la guarigione dalla malattia, ma il perseguimento delle
leges artis nella cura dell’interesse del creditore. Allo stesso tempo, l’interesse primario
del creditore consiste nel risultato favorevole per la propria salute, non nel mero
impiego della diligenza professionale.

Il danno evento, allora, consiste nella lesione dell’interesse primario (lesione dell’integrità
fisica), non nel mero inadempimento dell’obbligo di diligenza. Dunque, in altri termini, vi è
scissione tra l’oggetto dell’obbligazione (diligenza) e l’interesse leso
dall’inadempimento: il danno evento consiste nella lesione dell’integrità fisica.

Secondo l’impostazione della richiamata giurisprudenza, “la lesione dell’interesse


strumentale non significa necessariamente lesione dell’interesse primario, e dunque
allegare l’inadempimento non significa allegare anche il danno evento. La lesione
dell’integrità fisica, infatti, non è automaticamente collegabile al mancato rispetto delle
leges artis, ma potrebbe essere riconducibile ad una causa diversa dall’inadempimento.
Pertanto, anche la prova della causalità materiale spetta al creditore, poiché provando
l’inadempimento dell’obbligo di diligenza non viene provato automaticamente il danno
all’integrità fisica”[20].

Tale indirizzo giurisprudenziale pone un freno alla generale tendenza in atto nel settore
della responsabilità civile. La direzione è quella di oggettivare le ipotesi di responsabilità
che concernono l’esercizio di attività rischiose, improntate ad una gestione di tipo

11/13
imprenditoriale. L’approdo ai lidi della responsabilità contrattuale “classica” consentirebbe
l’adeguato assorbimento dei rischi legati all’impiego, nel settore medico, di strumenti di
intelligenza artificiale, poiché il creditore potrebbe limitarsi ad allegare l’inadempimento,
non dovendo, invece, ricercare la prova di un nesso causale di difficile accertamento,
specie nel settore dell’impiego di software intelligenti.

Al contrario, il recentissimo orientamento giurisprudenziale sembra porre un onere


sproporzionato in capo al creditore, specie laddove ha ritenuto che il rischio della causa
ignota gravi in capo al danneggiato. Il principio della vicinanza della prova impone che
l’onere probatorio spetti al soggetto posto in posizione di maggiore prossimità con la fonte
della prova. Ebbene, richiedere al debitore la dimostrazione che il danno derivi
dall’impiego di uno strumento di intelligenza artificiale sembra violativo del suddetto
principio.

La richiamata impostazione giurisprudenziale, dunque, allontana la responsabilità


sanitaria dallo schema tradizionale della responsabilità contrattuale. Su tale aspetto, in
conclusione, si auspica che gli interventi regolatori comunitari individuino standard di
tutela più intensi per il creditore, il quale, specie in riferimento di strumenti di A.I., è
maggiormente esposto alle richiamate difficoltà probatorie.

[1] Cfr. Ugo Ruffolo, L’Intelligenza artificiale in sanità: dispositivi medici, responsabilità e
‘‘potenziamento’’, «Giurisprudenza Italiana, Febbraio 2021».

[2] Cfr. Giovanni Pasceri, Intelligenza Artificiale in Radiologia, «Documento SIRM», 2020.

[3] Cfr. Giovanni Pasceri, Intelligenza Artificiale in Radiologia, «Documento SIRM», 2020.

[4] Cfr. Ian A.Scott, IA. Machine Learning and Evidence-Based Medicine, «Annals of
Internal Medicine», pag. 169:44- 46, 2018.

[5] Cfr. N. Musacchio, G. Guaita, A. Oz­zello, M.A. Pellegrini, P. Ponzani, R. Zilich, A. De


Micheli, Intelligenza Artificiale e Big Data in ambito medico: prospettive, opportunità,
criticità, «Journal of Associazione Medici Diabetologici», Vol. 21-3, 2018.

[6] Cfr. Goddard K, Roudsari A, Wyatt JC, Automation bias: a systematic review of
frequency, effect mediators, and mitigators, «Journal of the American Medical Informatics
Association», 2011.

[7] F. CABITZA; C. ALDERIGHI, R. RASONINI, G. GENSINI, Potenziali conseguenze


inattese dell’uso di sistemi di intelligenza artificiale oracolari in medicina, Recenti Prog
Med 2017; 108: 397-401

[8] Cfr. Povyakalo AA, Alberdi E, Strigini L, Ayton P., How to discriminate between
computer-aided and computerhindered decisions: a case study in mammography,
«Medical Decision Making», 2013.

[9] Kalan, S. et al., History of robotic surgery, «Journal of Robotic Surgery 4.3», 2010, pp.
141–147.

12/13
[10] Sitti, M., Micro-and nano-scale robotics, «American Control Conference», 2004, pp.
1–8.

[11] Cfr. Mauro colombo, Renzo Rozzini, Intelligenza artificiale in medicina: storia,
attualità e futuro, «Psicogeriatria», 2019.

[12] Cfr. N. Musacchio, G. Guaita, A. Oz­zello, M.A. Pellegrini, P. Ponzani, R. Zilich, A. De


Micheli, Intelligenza Artificiale e Big Data in ambito medico: prospettive, opportunità,
criticità, «Journal of Associazione Medici Diabetologici», Vol. 21-3, 2018; si veda, inoltre,
https://www.igi-global.com/chapter/electronic-health-re­cord-ehr-diffusion-and-an-
examination-of-physician-resi­stance/184077.

[13] Per un esame della risoluzione del Parlamento del 2017, si rinvia ad Andrea Amidei,
Robotica intelligente e responsabilità: profili e prospettive del quadro normativo europeo,
«Intelligenza Artificiale e responsabilità», pag. 63 e segg.

[14] Casi Hecht-Pharma, C-140/07; BIOS Natuproduckte, C-27/08; Brain Products, C-


219/11.

[15] Corte di Giustizia UE, caso Snitem – Syndicat national de l’industrie des technologies
medicales, C-329/16.

[16] Cfr. Andrea Amidei, Le responsabilità, per fatto proprio e degli ausiliari, della struttura
sanitaria, «Giurisprudenza Italiana», Febbraio 2021.

[17] Cfr. Andrea Amidei, Le responsabilità, per fatto proprio e degli ausiliari, della struttura
sanitaria, «Giurisprudenza Italiana», Febbraio 2021.

[18] Sul tema delle implicazioni dell’impiego di sistemi di Intelligenza Artificiale in ambito
sanitario, cfr. Savini Nicci, Vetrugno, Intelligenza artificiale e responsabilità nel settore
sanitario, in Ruffolo (a cura di), Intelligenza Artificiale – Il diritto, i diritti, l’etica, Milano,
2020, 601 e segg.; cfr. altresì Ruffolo, Artificial Intelligence e nuove responsabilità nel
settore medico e farmaceutico, in Ruffolo (a cura di), La nuova responsabilità medica, cit.,
237 e segg.; Perlingieri, Responsabilità civile e robotica medica, in Tecnologie e Dir.,
2020, 1, 161 e segg.

[19] Cass. Civ., Sez. III, 11 novembre 2019, n. 28991

[20] Cass. Civ., Sez. III, 11 novembre 2019, n. 28991

redazione
Share

13/13

Potrebbero piacerti anche