Sei sulla pagina 1di 85

Machine Translated by Google

Intelligenza
artificiale in sanità

Applicazioni,
rischi e impatti
etici e sociali

STUDIO
Panel per il futuro della scienza e della tecnologia

EPRS | Servizio di ricerca del Parlamento europeo


Unità di previsione scientifica (STOA)
PE 729.512 – giugno 2022 IN
Machine Translated by Google
Machine Translated by Google

Intelligenza artificiale
in sanità
Applicazioni, rischi e impatti etici e sociali

Negli ultimi anni, l'uso dell'intelligenza artificiale (AI) in medicina e sanità è


stato elogiato per le grandi promesse che offre, ma è stato anche al centro
di accese polemiche. Questo studio offre una panoramica di come l'IA può
beneficiare in particolare l'assistenza sanitaria futura
aumentare l'efficienza dei medici, migliorare la diagnosi e il trattamento
medico e ottimizzare l'allocazione delle risorse umane e tecniche.

Il rapporto identifica e chiarisce i principali rischi clinici, sociali ed etici posti


dall'IA nell'assistenza sanitaria, in particolare: potenziali errori e danni ai
pazienti; rischio di parzialità e aumento delle disuguaglianze sanitarie;
mancanza di trasparenza e fiducia; e vulnerabilità all'hacking e alle violazioni
della privacy dei dati.

Lo studio propone misure di mitigazione e opzioni politiche per ridurre al


minimo questi rischi e massimizzare i benefici dell'IA medica, compreso il
coinvolgimento di più parti interessate per tutta la durata della produzione
dell'IA, maggiore trasparenza e tracciabilità, convalida clinica approfondita
degli strumenti di intelligenza artificiale e formazione e educazione dell'IA
sia per i medici che per i cittadini.
Machine Translated by Google

STOAA | Panel per il futuro della scienza e della tecnologia

AUTORI

Questo studio è stato redatto dai seguenti autori su richiesta del gruppo di esperti scientifici per il futuro della scienza e della
tecnologia (STOA) e gestito dall'Unità di previsione scientifica, all'interno della Direzione generale dei servizi di ricerca parlamentare
(EPRS) del Segretariato del Parlamento europeo.

Karim Lekadir, Dipartimento di Matematica e Informatica dell'Università di Barcellona, Intelligenza Artificiale nel Laboratorio di
Medicina, Barcellona, Spagna; Gianluca Quaglio, Panel for the Future of Science and Technology (STOA), Parlamento Europeo,
Bruxelles, Belgio; Anna Tselioudis Garmendia, School of Public Health, Faculty of Medicine, Imperial College London, UK;
Catherine Gallin, Università di Barcellona
Dipartimento di Matematica e Informatica, Artificial Intelligence in Medicine Lab, Barcellona, Spagna.

AMMINISTRATORE RESPONSABILE

Gianluca Quaglio, Scientific Foresight Unit (STOA)

Per contattare l'editore, inviare un'e-mail a stoa@ep.europa.eu

VERSIONE LINGUISTICA

Originale: IT

Manoscritto completato nel maggio 2022.

DISCLAIMER E COPYRIGHT

Il presente documento è preparato e indirizzato ai deputati e al personale del Parlamento europeo come materiale di riferimento
per assisterli nel loro lavoro parlamentare. Il contenuto del documento è di esclusiva responsabilità dei suoi autori e qualsiasi
opinione ivi espressa non deve essere considerata come una posizione ufficiale del Parlamento.

La riproduzione e la traduzione per scopi non commerciali sono autorizzate, a condizione che sia citata la fonte e che il Parlamento
europeo ne sia preventivamente informato e ne invii una copia.

Bruxelles © Unione europea, 2022.

PE 729.512
ISBN: 978-92-846-9456-3
doi:10.2861/568473
QA-07-22-328-IT-N

http://www.europarl.europa.eu/stoa (sito web STOA)


http://www.eprs.ep.parl.union.eu (intranet)
http://www.europarl.europa.eu/thinktank (Internet)
http://epthinktank.eu (blog)
Machine Translated by Google

Intelligenza artificiale in sanità

Sintesi
Obiettivi
Negli ultimi anni, un crescente interesse e preoccupazione per l'uso dell'intelligenza artificiale (AI) in medicina e
assistenza sanitaria è stato al centro della ricerca scientifica interdisciplinare, del dibattito politico e dell'attivismo sociale.
L'obiettivo di questo rapporto è spiegare le aree in cui l'IA può contribuire al settore medico e sanitario, individuare i
rischi più significativi relativi alla sua applicazione in questo campo ad alto rischio e in rapida evoluzione e presentare
opzioni politiche per contrastare questi rischi, al fine di ottimizzare l'uso dell'IA biomedica. Ciò non solo garantirà la
sicurezza e il trattamento rispettoso dei pazienti che ricevono assistenza sanitaria mediata dall'IA, ma dovrebbe anche
aiutare i medici e gli sviluppatori coinvolti nella sua attuazione.

Metodologia
Questo studio utilizza una metodologia interdisciplinare basata su una revisione e analisi della letteratura completa (ma
non sistematica) di articoli scientifici esistenti, white paper, linee guida e regolamenti recenti, proposte di governance,
studi sull'IA e pubblicazioni online. Le risorse multidisciplinari esaminate per questo rapporto includono lavori nei campi
dell'informatica, della ricerca biomedica, delle scienze sociali, dell'etica biomedica, del diritto, dell'industria e dei rapporti
governativi. Questo rapporto esplora un'ampia gamma di ostacoli e soluzioni tecniche, studi clinici e risultati, nonché
proposte del governo e linee guida di consenso.

Applicazioni specifiche dell'IA in medicina e sanità


Questo studio delinea innanzitutto il potenziale dell'IA in medicina per affrontare questioni urgenti, in particolare
l'invecchiamento della popolazione e l'aumento delle malattie croniche, la mancanza di personale sanitario, l'inefficienza
dei sistemi sanitari, la mancanza di sostenibilità e le disuguaglianze sanitarie. Il rapporto descrive inoltre in dettaglio i
diversi campi in cui l'IA biomedica potrebbe apportare i contributi più significativi: 1) pratica clinica, 2) ricerca biomedica,
3) sanità pubblica e 4) amministrazione sanitaria.

Nell'ambito della pratica clinica, la relazione approfondisce i contributi specifici


– realizzati e potenziali – a particolari aree mediche come radiologia, cardiologia, patologia digitale, medicina d'urgenza,
chirurgia, rischio medico e previsione delle malattie, interventi adattivi di assistenza domiciliare e salute mentale. Nella
ricerca biomedica, il rapporto descrive in dettaglio i potenziali contributi dell'IA alla ricerca clinica, alla scoperta di
farmaci, alle sperimentazioni cliniche e alla medicina personalizzata.
Infine, il rapporto presenta i potenziali contributi dell'IA a livello di sanità pubblica e di salute globale.

Rischi dell'IA in ambito sanitario

Questo studio ha identificato e chiarisce sette rischi principali dell'IA in medicina e assistenza sanitaria: 1) danni ai
pazienti dovuti a errori di intelligenza artificiale, 2) uso improprio di strumenti di intelligenza artificiale medica, 3) parzialità
nell'IA e perpetuazione delle disuguaglianze esistenti, 4) mancanza di trasparenza, 5) problemi di privacy e sicurezza,
6) lacune nella responsabilità e 7) ostacoli nell'attuazione. Ogni sezione, come riassunto di seguito, non solo descrive il
rischio in questione, ma propone anche potenziali misure di mitigazione.

Danno al paziente a causa di errori AI

Lo studio spiega le principali cause degli errori dell'IA: rumore e artefatti negli input e nelle misurazioni cliniche dell'IA,
spostamento dei dati tra i dati di addestramento dell'IA e i dati del mondo reale e variazioni inaspettate nei contesti e
negli ambienti clinici. Le conseguenze mediche di tali errori possono includere mancato

IO
Machine Translated by Google

STOAA | Panel per il futuro della scienza e della tecnologia

diagnosi di condizioni pericolose per la vita così come false diagnosi, che portano a un trattamento inadeguato e a una
programmazione errata o a una priorità di intervento non corretta.

Uso improprio di strumenti di intelligenza artificiale biomedica

Gli strumenti di intelligenza artificiale, anche se accurati e robusti, dipendono da come gli esseri umani li utilizzano nella
pratica e da come vengono utilizzati i risultati che producono; nel contesto sanitario, questi attori umani includono
medici, operatori sanitari e pazienti. L'uso errato degli strumenti di intelligenza artificiale può comportare valutazioni
mediche e processi decisionali errati e, di conseguenza, potenziali danni per il paziente.

Le potenziali cause dell'uso improprio dell'IA includono il coinvolgimento limitato di medici e cittadini nello sviluppo dell'IA,
la mancanza di formazione sull'IA nell'IA medica tra gli operatori sanitari, la mancanza di consapevolezza e alfabetizzazione
tra i pazienti e il pubblico in generale e la proliferazione di soluzioni di intelligenza artificiale online e mobili facilmente
accessibili senza spiegazioni e informazioni sufficienti.

Rischio di parzialità nell'IA medica e perpetuazione delle disuguaglianze

I pregiudizi umani sistemici spesso si fanno strada nei modelli di intelligenza artificiale, inclusi pregiudizi diffusi e radicati
basati su sesso e genere, razza ed etnia, età, stato socioeconomico, posizione geografica e contesti urbani o rurali. Le
cause più comuni di pregiudizi dell'IA nella sfera sanitaria sono dovute a set di dati distorti e squilibrati che possono
essere basati su pregiudizi strutturali e discriminazione (discriminazione sistemica che è insita nel modo in cui i dati
vengono raccolti o nel modo in cui i medici trattano i loro pazienti) e disparità nell'accesso ad attrezzature di qualità e
tecnologie digitali, nonché mancanza di diversità e interdisciplinarietà nei team tecnologici, scientifici, clinici e decisionali.

Mancanza di trasparenza

Un rischio significativo per l'IA è la mancanza di trasparenza in merito alla progettazione, allo sviluppo, alla valutazione e
all'implementazione degli strumenti di IA. La trasparenza dell'IA è strettamente legata ai concetti di tracciabilità e
spiegabilità, che corrispondono a due livelli distinti a cui è richiesta la trasparenza:
1) trasparenza dei processi di sviluppo e utilizzo dell'IA (tracciabilità) e 2) trasparenza delle stesse decisioni dell'IA
(spiegabilità).

I rischi specifici associati alla mancanza di trasparenza nell'IA biomedica includono una mancanza di comprensione e
fiducia nelle previsioni e nelle decisioni generate dal sistema di intelligenza artificiale, difficoltà nel riprodurre e valutare in
modo indipendente gli algoritmi di intelligenza artificiale, difficoltà nell'identificare le fonti degli errori di intelligenza artificiale
e definire chi e/o cosa ne sia responsabile e una diffusione limitata degli strumenti di intelligenza artificiale nella pratica
clinica e in contesti del mondo reale.

Privacy e sicurezza

Lo sviluppo sempre più diffuso di soluzioni e tecnologie di intelligenza artificiale nel settore sanitario, recentemente
sottolineato dalla dipendenza dai big data durante la pandemia di Covid-19, ha evidenziato i potenziali rischi di una
mancanza di privacy, riservatezza e protezione dei dati per pazienti e cittadini. I principali rischi per la privacy e la
sicurezza dei dati nell'IA per l'assistenza sanitaria, inclusa la condivisione non completa dei dati personali
consenso informato, riutilizzo dei dati all'insaputa del paziente, violazioni dei dati che potrebbero
espongono informazioni sensibili o personali e il rischio di danni - o addirittura potenzialmente fatali -
attacchi informatici alle soluzioni di intelligenza artificiale, sia a livello individuale che ospedaliero o di sistema sanitario.

Lacune nella responsabilità

La "responsabilità algoritmica" è un aspetto cruciale di un'IA affidabile e applicabile nel campo dell'assistenza sanitaria.
Tuttavia, continuano a esistere lacune legali nelle attuali normative nazionali e internazionali relative a chi dovrebbe
essere ritenuto responsabile per errori o guasti dei sistemi di IA, in particolare nell'IA medica. È difficile definire i ruoli e le
responsabilità a causa della molteplicità di attori coinvolti nel processo dell'IA medica, dalla progettazione
all'implementazione (ad es. operatori sanitari o sviluppatori di IA). Questa mancanza di definizione può lasciare i medici e
altri operatori sanitari

II
Machine Translated by Google

Intelligenza artificiale in sanità

professionisti in una posizione particolarmente vulnerabile, soprattutto se il modello di IA che utilizzano non è del tutto trasparente.

Ostacoli all'implementazione nell'assistenza sanitaria nel mondo reale

Molti strumenti di intelligenza artificiale medica sono stati sviluppati di recente; tuttavia, abbondano gli ostacoli nel percorso
verso l'implementazione, l'integrazione e l'uso di questi strumenti in contesti clinici reali. Tali ostacoli includono qualità, struttura
e interoperabilità limitate dei dati tra centri clinici eterogenei e cartelle cliniche elettroniche; potenziali alterazioni nella relazione
medico-paziente dovute all'introduzione di strumenti medici di intelligenza artificiale; accesso aumentato e sottoregolato ai dati
dei pazienti; e una mancanza di integrazione clinica e tecnica e interoperabilità degli strumenti di intelligenza artificiale con i
flussi di lavoro clinici e i sistemi sanitari elettronici esistenti.

Metodologia di valutazione del rischio

È necessario un approccio strutturato alla valutazione e alla gestione del rischio che affronti in modo specifico le sfide tecniche,
cliniche ed etiche dell'IA nel settore sanitario e medico.

Quadri normativi per l'IA

I rischi di IA possono essere caratterizzati e classificati in base alla gravità del danno che possono indurre, nonché alla probabilità
e alla frequenza del danno indotto. Attualmente, i regolamenti applicabili per gli strumenti di IA medica nell'UE sono il regolamento
sui dispositivi medici (MDR) 2017/745 e il regolamento sui dispositivi medico-diagnostici in vitro (IVDR) 2017/746, che sono stati
approvati nel 2017.
Tuttavia, poiché sono stati derivati in un momento in cui l'IA era in una fase iniziale del suo sviluppo, molti aspetti specifici dell'IA
non vengono considerati, come l'apprendimento continuo dei modelli di intelligenza artificiale o l'identificazione di bias algoritmici.

Nel 2021, la Commissione europea ha pubblicato una proposta tanto attesa per un regolamento sull'IA e per armonizzare le
norme che disciplinano le tecnologie dell'IA in tutta Europa. La categoria più alta corrisponde agli strumenti di intelligenza
artificiale che contraddicono i valori dell'UE e quindi dovrebbero essere vietati. La categoria intermedia, che corrisponde all'IA
ad alto rischio e comprende le tecnologie di IA medica, può essere consentita solo se gli strumenti soddisfano requisiti e obblighi
specifici per un'adeguata gestione del rischio, come garantire la supervisione umana e condurre il monitoraggio post-
commercializzazione.

La proposta della Commissione europea per la regolamentazione dell'IA è generale per tutti i settori della società e non tiene
conto delle specificità e dei rischi dell'IA nel settore sanitario, contrariamente ai regolamenti MDR e IVDR. Inoltre, la proposta
della Commissione europea mantiene alcuni dei limiti dell'MDR e dell'IVDR, come la mancanza di meccanismi per affrontare la
natura dinamica e l'apprendimento continuo delle tecnologie di intelligenza artificiale medica.

Minimizzazione del rischio attraverso l'autovalutazione del rischio

Per l'identificazione dei rischi nell'IA, diverse parti interessate hanno suggerito un approccio strutturato di autovalutazione
composto da liste di controllo e domande specificate. Ad esempio, il gruppo indipendente di esperti di alto livello sull'intelligenza
artificiale (AI HLEG), istituito dalla Commissione europea, ha pubblicato una lista di controllo per la valutazione di un'IA affidabile
denominata ALTAI. La lista di controllo è strutturata intorno
sette categorie: (1) intervento umano e supervisione; (2) solidità tecnica e sicurezza; (3) privacy e governance dei dati; (4)
trasparenza; (5) diversità, non discriminazione ed equità; (6) benessere ambientale e sociale; e (7) responsabilità.

Il modello ALTAI è generale e non affronta specificamente l'IA nell'assistenza sanitaria. Ciò ha motivato il recente sviluppo di
linee guida di consenso per un'IA affidabile in medicina da parte di una rete di progetti di ricerca finanziati dalla Commissione
europea insieme a esperti interdisciplinari internazionali. Intitolate FUTURE-AI, queste linee guida sono organizzate secondo sei
principi (equità, universalità, tracciabilità, usabilità, robustezza, spiegabilità) e comprendono concrete

III
Machine Translated by Google

STOAA | Panel per il futuro della scienza e della tecnologia

raccomandazioni e una lista di controllo di autovalutazione per consentire a progettisti, sviluppatori, valutatori e regolatori di
intelligenza artificiale di sviluppare soluzioni di intelligenza artificiale affidabili ed etiche in medicina e assistenza sanitaria.

Identificazione del rischio attraverso una valutazione clinica completa e sfaccettata delle soluzioni AI

Sebbene l'identificazione e la mitigazione dei rischi nell'IA medica mediante adeguati studi di valutazione sia fondamentale, la
letteratura scientifica esistente si è concentrata principalmente sulla valutazione dell'accuratezza del modello e della robustezza
degli strumenti di intelligenza artificiale in contesti di laboratorio. Altri aspetti dell'IA medica, come la sicurezza e l'efficacia clinica,
l'equità e la non discriminazione, la trasparenza e la tracciabilità, nonché la privacy e la sicurezza, sono più difficili da valutare
in ambienti controllati e hanno quindi ricevuto molta meno attenzione nella letteratura scientifica.

È necessario un approccio di valutazione più olistico e sfaccettato per le future soluzioni di intelligenza artificiale nel settore
sanitario. Le migliori pratiche per migliorare la valutazione e l'implementazione clinica includono: (i) assunzione
definizioni standard di attività cliniche (ad es. definizione di malattia) per consentire valutazioni obiettive guidate dalla comunità;
(ii) definire elementi prestazionali che vanno oltre l'accuratezza, come l'equità, l'usabilità, la spiegabilità e la trasparenza; (iii)
suddividere il processo di valutazione in fasi di crescente complessità (vale a dire valutare la fattibilità, quindi la capacità,
l'efficacia e la durabilità); (iv) promuovere
valutazioni esterne da parte di valutatori terzi indipendenti; e (v) impiegando linee guida standardizzate per riportare i risultati
della valutazione dell'IA per aumentare la riproducibilità, la trasparenza e la fiducia.

Opzioni politiche

1. Estendere i quadri normativi e i codici di condotta dell'IA per affrontare i rischi e i requisiti specifici dell'assistenza
sanitaria

Al fine di adattare i quadri esistenti e le pratiche di IA specificamente al settore medico, la valutazione del rischio multiforme
dovrebbe essere parte integrante del processo di sviluppo e certificazione dell'IA medica.
Inoltre, la valutazione del rischio deve essere specifica del dominio, poiché i rischi clinici ed etici differiscono nei diversi campi
medici (ad esempio radiologia o pediatria). Nel futuro quadro normativo, la convalida delle tecnologie di intelligenza artificiale
medica dovrebbe essere armonizzata e rafforzata per valutare e identificare rischi e limiti multiformi valutando non solo
l'accuratezza e la robustezza del modello, ma anche l'equità algoritmica, la sicurezza clinica, l'accettazione clinica, la trasparenza
e la tracciabilità.

2. Promuovere il coinvolgimento di più parti interessate e la co-creazione durante l'intero ciclo di vita degli algoritmi di
intelligenza artificiale medica

Per la futura accettabilità e implementazione degli strumenti di intelligenza artificiale medica nel mondo reale, molte parti
interessate oltre agli sviluppatori di intelligenza artificiale, come medici, pazienti, scienziati sociali, dirigenti sanitari e regolatori
dell'IA, svolgeranno un ruolo fondamentale. Pertanto, sono necessari nuovi approcci per promuovere l'impegno inclusivo e
multilaterale nell'IA medica e garantire che gli strumenti di intelligenza artificiale siano progettati, convalidati e implementati in
pieno allineamento con la diversità delle esigenze e dei contesti del mondo reale. I futuri algoritmi di intelligenza artificiale
dovrebbero pertanto essere sviluppati dai produttori di intelligenza artificiale sulla base della co-creazione, vale a dire attraverso
una collaborazione forte e continua tra gli sviluppatori di intelligenza artificiale e gli utenti finali clinici, nonché con altri esperti
pertinenti come esperti di etica biomedica.

L'integrazione di approcci incentrati sull'uomo e sull'utente durante l'intero processo di sviluppo dell'IA consentirà la progettazione
di algoritmi di IA che riflettano meglio le esigenze e le culture degli operatori sanitari, consentendo anche di identificare e
affrontare i potenziali rischi in una fase iniziale.

3. Creare un passaporto AI e meccanismi di tracciabilità per una maggiore trasparenza e fiducia


IA medica

Sono necessari nuovi approcci e meccanismi per migliorare la trasparenza degli algoritmi di intelligenza artificiale durante tutto
il loro ciclo di vita. Da questa esigenza può emergere il concetto di un "passaporto AI" per la descrizione standardizzata e la
tracciabilità degli strumenti di IA medica. Tale passaporto dovrebbe descrivere e

IV
Machine Translated by Google

Intelligenza artificiale in sanità

monitorare le informazioni chiave sulla tecnologia AI, coprendo almeno cinque categorie di informazioni: 1) informazioni
relative al modello; 2) informazioni relative ai dati; 3) informazioni relative alla valutazione; 4) informazioni relative
all'utilizzo; e 5) informazioni relative alla manutenzione.

Il passaporto AI dovrebbe essere standardizzato per consentire una tracciabilità coerente tra paesi e organizzazioni
sanitarie. Inoltre, il concetto di tracciabilità deve andare oltre la mera documentazione del processo di sviluppo o la fase
di test del modello di IA; dovrebbe invece comprendere anche il processo di monitoraggio e mantenimento del modello o
sistema di intelligenza artificiale nel mondo reale, monitorando continuamente come funziona dopo l'implementazione
nella pratica clinica e identificando potenziali errori o cambiamenti nelle prestazioni. Pertanto, è importante che gli
algoritmi siano sviluppati insieme a interfacce live che saranno destinate alla sorveglianza continua e al controllo degli
strumenti di intelligenza artificiale dopo la loro implementazione nei rispettivi ambienti clinici.

4. Sviluppare quadri per migliorare la definizione di responsabilità e il monitoraggio di


responsabilità nell'IA medica

Sono necessari quadri e meccanismi per assegnare la responsabilità in modo adeguato a tutti gli attori nel flusso di lavoro
dell'IA nella pratica medica, compresi i produttori, fornendo così incentivi per l'applicazione di tutte le misure e le migliori
pratiche per ridurre al minimo gli errori e i danni al paziente. Tali aspettative sono già parte integrante dello sviluppo, della
valutazione e della commercializzazione di medicinali, vaccini e attrezzature mediche e devono essere estese ai futuri
prodotti di intelligenza artificiale medica.

Un altro modo per rafforzare la responsabilità è attraverso audit periodici e valutazioni del rischio, che possono essere
utilizzati per valutare quanta supervisione normativa potrebbe richiedere un determinato strumento di intelligenza
artificiale. A tal fine, le valutazioni devono essere condotte attraverso l'intera pipeline dell'IA, dalla raccolta dei dati, allo
sviluppo, alle fasi precliniche, all'implementazione, ma anche quando gli strumenti sono in uso.

5. Introdurre programmi educativi e campagne per migliorare le competenze degli operatori sanitari e
l'alfabetizzazione del pubblico in generale nell'IA medica

Per aumentare l'adozione e ridurre al minimo gli errori, i futuri professionisti medici dovrebbero essere adeguatamente
formati sull'IA medica, compresi i suoi vantaggi in termini di miglioramento della qualità dell'assistenza e dell'accesso
all'assistenza sanitaria, nonché i suoi limiti e rischi. È quindi tempo di aggiornare i programmi educativi in medicina e
aumentare la loro interdisciplinarietà.

Inoltre, è urgente aumentare l'alfabetizzazione dell'IA del pubblico in modo che i cittadini e i pazienti possano potenziarsi
e quindi sfruttare meglio i vantaggi degli strumenti emergenti dell'IA medica; una maggiore alfabetizzazione dell'IA
contribuirà anche a ridurre al minimo il rischio potenziale di uso improprio degli strumenti di intelligenza artificiale, in
particolare durante il monitoraggio remoto e la gestione dell'assistenza.

6. Promuovere ulteriori ricerche sulla robustezza clinica, etica e tecnica nell'IA medica

C'è bisogno di ulteriori ricerche sulle aree correlate dell'IA medica per affrontare la corrente
limiti clinici, socio-etici e tecnici. Esempi di aree per la ricerca futura includono spiegabilità e interpretabilità, stima e
mitigazione dei pregiudizi e IA sicura e che preserva la privacy.

Sono inoltre necessarie ulteriori ricerche per sviluppare metodi di adattamento in grado di garantire un alto livello di
generalizzabilità dei futuri strumenti di intelligenza artificiale tra gruppi di popolazione, centri clinici e posizioni geografiche.
Le future soluzioni di intelligenza artificiale per l'assistenza sanitaria dovrebbero essere implementate integrando la stima
dell'incertezza, un campo di ricerca relativamente nuovo che mira a fornire ai medici indicazioni clinicamente utili sul
grado di fiducia nelle previsioni dell'IA.

IN
Machine Translated by Google

STOAA | Panel per il futuro della scienza e della tecnologia

7. Attuare una strategia per ridurre il divario europeo nell'IA medica

Sebbene l'UE abbia effettuato investimenti significativi nell'IA negli ultimi anni, persistono disuguaglianze
tra i diversi paesi europei. Il divario dell'IA può essere spiegato dalle differenze strutturali nei programmi di
ricerca e nelle capacità tecnologiche, nonché dai diversi livelli di investimento dei settori pubblico e privato.
Le disparità nello sviluppo e nell'attuazione dell'IA tra i paesi dell'UE sono particolarmente marcate nell'IA
medica. In questo contesto, l'UE può fungere da ombrello per coordinare una strategia a livello di UE per
ridurre i divari nell'IA medica tra i paesi europei. Questa strategia dovrebbe includere azioni concrete per
rafforzare le capacità tecnologiche, di ricerca e industriali dei paesi emergenti dell'UE nel campo dell'IA
per l'assistenza sanitaria.

Gli Stati membri dell'UE, in particolare quelli dell'Europa orientale, potrebbero sviluppare programmi
specifici per sostenere ulteriormente la futura IA nell'assistenza sanitaria. La Commissione europea
potrebbe attuare specifici programmi di coordinamento e sostegno delle attività realizzate in questo settore
da diversi Stati membri, sostenendo così l'attuazione di orientamenti e approcci comuni.
Inoltre, i progetti infrastrutturali dovrebbero essere stabiliti specificamente per quei paesi dell'UE che
hanno infrastrutture di ricerca e disponibilità di dati limitate. I programmi esistenti incentrati sull'istruzione,
come le reti di formazione Marie-Curie, potrebbero essere rafforzati per migliorare le capacità di formazione
e il capitale umano nell'IA medica.

NOI
Machine Translated by Google

Intelligenza artificiale in sanità

Sommario
Sintesi esecutiva _________________________________________________________________I

1. Introduzione ____________________________________________________ 1

1.1. Obiettivi di questo studio ________________________________________________________ 1

1.2. Metodologia e risorse utilizzate ________________________________________________ 1

1.3. Definizioni ____________________________________________________ 2

2. Applicazioni dell'intelligenza artificiale in ambito sanitario ____________________________________ 4

2.1. Intelligenza artificiale e bisogni sanitari_________________________________________ 4

2.1.1. Principali sfide per i sistemi sanitari dell'UE _____________________________________ 4

2.1.2. Principali domini di applicazione dell'AI in ambito sanitario____________________________________ 5

2.2. L'IA nella pratica clinica ________________________________________________________ 5

2.2.1. Radiologia ________________________________________________________________ 6

2.2.2. Patologia digitale ________________________________________________________ 6

2.2.3. Medicina d'emergenza _______________________________________________________ 6

2.2.4. Chirurgia __________________________________________________________________ 7

2.2.5. Previsione del rischio ____________________________________________________________ 7

2.2.6. Interventi adattivi ______________________________________________________ 7

2.2.7. Assistenza domiciliare________________________________________________________________ 8

2.2.8. Cardiologia________________________________________________________________ 8

2.2.9. Nefrologia_________________________________________________________________ 9

2.2.10. Epatologia ________________________________________________________________ 9

2.2.11. Salute mentale _________________________________________________________ 10

2.3. L'intelligenza artificiale nella ricerca biomedica______________________________________________________ 10

2.3.1. Ricerca clinica __________________________________________________________ 10

2.3.2. Scoperta di droghe _____________________________________________________________ 11

2.3.3. Test clinici _____________________________________________________________ 11

VII
Machine Translated by Google

STOAA | Panel per il futuro della scienza e della tecnologia

2.3.4. Medicina personalizzata _____________________________________________________ 12

2.4. AI per la salute pubblica e globale _________________________________________________ 12

2.4.1. Salute pubblica _____________________________________________________________ 12

2.4.2. Salute globale___________________________________________________ 13

2.5. L'intelligenza artificiale nell'amministrazione sanitaria _________________________________________________ 13

2.5.1. Codifica__________________________________________________________________ 13

2.5.2. Programmazione ______________________________________________________________ 14

2.5.3. Rilevamento di attività fraudolente ______________________________________________ 14

2.5.4. Gestione del flusso di pazienti __________________________________________________ 14

2.5.5. Audit sanitari _________________________________________________________ 14

3. Rischio di IA in ambito sanitario_________________________________________________________ 15

3.1. Danno al paziente dovuto a errori di AI_____________________________________ 15

3.2. Uso improprio di strumenti di intelligenza artificiale medica _____________________________________________________ 17

3.3. Rischio di parzialità nell'IA medica e perpetuazione delle disuguaglianze _____________________________ 20

3.4. Mancanza di trasparenza _________________________________________________________ 22

3.5. Problemi di privacy e sicurezza_____________________________________________________ 23

3.6. Lacune nella responsabilità dell'IA ______________________________________________________ 25

3.7. Ostacoli all'implementazione nell'assistenza sanitaria nel mondo reale_________________________________ 27

4. Metodologia di valutazione del rischio __________________________________________________ 30

4.1. Quadri normativi per l'IA __________________________________________________ 30

4.2. Minimizzazione del rischio attraverso l'autovalutazione del rischio ____________________________________ 33

4.3. Identificazione del rischio attraverso una valutazione clinica completa e sfaccettata delle soluzioni AI _ 36

4.3.1. Definizione standardizzata dei compiti clinici ________________________________________ 37

4.3.2. Valutazione sfaccettata delle prestazioni oltre l'accuratezza_________________________ 37

4.3.3. Suddivisione del processo di valutazione in fasi distinte. ________________________ 40

4.3.1. Promozione di valutazioni esterne da parte di valutatori terzi________________________ 42

VIII
Machine Translated by Google

Intelligenza artificiale in sanità

4.3.2. Rapporti standardizzati e completi della procedura e dei risultati della valutazione dell'IA __ 43

5. Opzioni politiche ________________________________________________________________ 46

5.1. Estendere i quadri normativi e i codici di condotta dell'IA per affrontare i rischi e i requisiti specifici
dell'assistenza sanitaria __________________________________________________________________ 46

5.2. Promuovere il coinvolgimento di più parti interessate e la co-creazione durante l'intero ciclo di vita
degli algoritmi di IA medica _________________________________________________________ 47

5.3. Creare un passaporto per l'IA e meccanismi di tracciabilità per una maggiore trasparenza e
fiducia nell'IA medica_____________________________________________________________________ 48

5.4. Sviluppare quadri per definire meglio la responsabilità e monitorare le responsabilità nell'IA medica49

5.5. Introdurre programmi educativi per migliorare le competenze degli operatori sanitari e l'alfabetizzazione
del pubblico in generale ________________________________________________________________ 50

5.6. Promuovere ulteriori ricerche sulla robustezza clinica, etica e tecnica nell'IA medica _______ 51

5.7. Attuare una strategia per ridurre il divario europeo nell'IA medica___________________ 52

Riferimenti_____________________________________________________________________ 53

IX
Machine Translated by Google

STOAA | Panel per il futuro della scienza e della tecnologia

Lista delle figure

Figura 1 – Relazione tra intelligenza artificiale, machine learning e deep learning ___ 3

Figura 2 – Principali classi di strumenti di IA presi in esame in questo report_________________________________ 5

Figura 3 – Riepilogo delle cause e delle conseguenze di errori e fallimenti degli algoritmi di IA medica, insieme ad alcune
raccomandazioni per la potenziale mitigazione_________________________ 16

Figura 4 – Principali fattori che possono portare a un uso scorretto degli algoritmi di IA medica da parte di medici e cittadini
e potenziali misure di mitigazione per migliorare l'usabilità degli algoritmi futuri _______ 18

Figura 5 – Distorsioni più comuni e relative cause nell'IA medica e potenziali misure di mitigazione per sviluppare algoritmi
di intelligenza artificiale con maggiore equità ed equità ___________________________ 20

Figura 6 – Principali rischi derivanti dall'attuale mancanza di trasparenza associata agli algoritmi di IA seguiti da possibili
misure di mitigazione__________________________________________ 22

Figura 7 – Principali rischi per la privacy e la sicurezza associati ai big data e all'intelligenza artificiale e alcune misure di mitigazione
le misure ____________________________________________________________________ 24

Figura 8 – Limiti attuali nella responsabilità e raccomandazioni per colmare queste lacune ___ 26

Figura 9 – Ostacoli per l'implementazione clinica e l'integrazione di nuovi strumenti di intelligenza artificiale nella pratica
sanitaria del mondo reale, insieme a potenziali misure di mitigazione _______________________ 28

Figura 10 – Classificazione del rischio di IA secondo la proposta dell'UE del 2021 sulla legislazione in materia di IA ________ 32

Figura 11 – Raccomandazioni per una migliore valutazione delle prestazioni e dei rischi dell'algoritmo nell'IA medica
___________________________________________________________________ 36

Figura 12 – Esempio di un approccio in più fasi per la valutazione dell'IA medica _________________ 41

Figura 13 – Riepilogo delle opzioni politiche suggerite in questo rapporto ________________________ 46

Figura 14 – Esempio di un possibile passaporto per l'IA che può essere utilizzato per migliorare la tracciabilità e la
trasparenza nell'IA medica, documentando tutti i dettagli chiave sugli strumenti di IA, il loro uso previsto, i dettagli del
modello e dei dati, i risultati della valutazione e le informazioni derivanti dal monitoraggio e dall'audit
continui_____________________________________________________________________ 49

X
Machine Translated by Google

Intelligenza artificiale in sanità

Elenco delle tabelle

Tabella 1 – Principali definizioni e concetti nell'IA medica _________________________________ 2

Tabella 2 – Esempi di elementi prestazionali per algoritmi AI di imaging __________________ 38

Tabella 3 – Estratti del processo di valutazione suddiviso per l'IA medica, basato sui processi implementati nel
settore dello sviluppo dei farmaci__________________________________________________ 41

Tabella 4 – Elementi di segnalazione delle linee guida di segnalazione MINMAR____________________ 44

XI
Machine Translated by Google
Machine Translated by Google

Intelligenza artificiale in sanità

1. Introduzione
1.1. Obiettivi di questo studio
Negli ultimi anni, c'è stato un crescente interesse per l'applicazione dell'intelligenza artificiale (AI) nel settore sanitario.
Dalla scoperta di farmaci alla fornitura di assistenza sanitaria, l'intelligenza artificiale (AI) ha il potenziale per rivoluzionare
il campo della salute. Precisamente, l'intelligenza artificiale probabilmente migliorerà l'accesso all'assistenza sanitaria e
il modo in cui i pazienti vengono curati, ma ottimizza anche il modo in cui le risorse vengono allocate, aiutando così i
sistemi sanitari a funzionare in modo più efficace ed efficiente (EIT Health, 2020).

Il potenziale dell'intelligenza artificiale per rimodellare il campo dell'assistenza sanitaria, per aiutare a migliorare la
diagnosi e consentire un approccio di precisione sempre più personalizzato alla medicina, può sembrare illimitato.
Alcune delle principali applicazioni dell'IA in medicina includono la quantificazione delle immagini mediche, l'analisi
automatizzata dei dati genetici, la previsione delle malattie, la robotica medica, la telemedicina e i medici virtuali. La
pandemia di coronavirus ha accelerato lo sviluppo e l'implementazione di applicazioni di intelligenza artificiale nelle
aree mediche e cliniche, poiché le tecnologie relative all'IA sono al centro della risposta a questa crisi sanitaria mondiale.

Tuttavia, come con altri progressi tecnologici, l'intelligenza artificiale nel settore dell'assistenza sanitaria presenta
vantaggi e rischi specifici e necessita di un proprio insieme di quadri normativi che affrontino le implicazioni socio-
etiche del suo utilizzo. Sebbene l'implementazione dell'IA nell'assistenza sanitaria sia molto promettente, questo
il settore in rapido sviluppo solleva anche preoccupazioni per i pazienti, i sistemi sanitari e la società; queste
preoccupazioni includono questioni di sicurezza clinica, accesso equo, privacy e sicurezza, uso e utenti appropriati,
nonché responsabilità e regolamentazione. Pertanto, i ricercatori, il pubblico in generale e i responsabili politici hanno
tutti sottolineato importanti questioni bioetiche, tra cui come valutare i rischi e i benefici dell'IA nell'assistenza sanitaria,
come stabilire la responsabilità nell'ambito dell'IA biomedica e come regolarne l'uso in questo contesto particolarmente
ad alto rischio. Un'altra domanda importante al centro del campo è se l'IA possa aumentare l'inclusione e l'equità nel
trattamento delle comunità tradizionalmente sottorappresentate, o se corre il rischio di perpetuare e aumentare le
disparità e le disuguaglianze sanitarie preesistenti.

Lo studio fornirà una panoramica delle applicazioni sanitarie dell'IA e un'analisi del potenziale dell'IA per trasformare
l'offerta di assistenza sanitaria. Lo studio definirà, valuterà e chiarirà inoltre i rischi nelle applicazioni attuali e potenziali
dell'IA nel settore dell'assistenza sanitaria. Allo stesso tempo, prenderà in considerazione i principali aspetti clinici,
socio-etici e normativi dell'IA nelle sue varie applicazioni sanitarie.
Infine, lo studio proporrà anche una serie di opzioni politiche volte a ridurre al minimo i rischi dell'IA medica, migliorare
la governance a livello dell'UE e rafforzare il suo sviluppo responsabile.

1.2. Metodologia e risorse utilizzate


La metodologia implementata in questo studio si basa su una completa revisione interdisciplinare (ma non sistematica)
della letteratura e analisi di articoli scientifici esistenti, white paper, linee guida recenti, proposte di governance, studi e
risultati sull'IA, articoli di notizie e pubblicazioni online.
Questi sono stati generati da sviluppatori di intelligenza artificiale, agenzie pubbliche, leader esperti, ricercatori clinici,
professionisti sanitari e scienziati sociali che hanno lavorato attivamente nel campo dell'IA per la medicina e l'assistenza
sanitaria negli ultimi anni, soprattutto negli ultimi due o tre anni.

Per questo rapporto è stato preso in esame un corpus letterario altamente interdisciplinare, tra cui opere provenienti
dai campi dell'informatica, della ricerca biomedica, delle scienze sociali, dell'etica biomedica, del diritto, dell'industria,
e rapporti governativi. Pertanto, questo rapporto esamina un'ampia gamma di ostacoli e soluzioni tecniche, studi clinici
e risultati, nonché proposte del governo e linee guida di consenso.

1
Machine Translated by Google

STOAA | Panel per il futuro della scienza e della tecnologia

È stata eseguita un'ampia gamma di ricerche di frasi chiave nei database della letteratura, in particolare in Google
Scholar, PubMed e Web of Science. A seconda dei diversi temi esaminati in questo studio, esempi di ricerche di
frasi chiave includono "IA medica", "rischi dell'IA", "sfide etiche dell'IA", "sicurezza clinica", "equità dell'IA",
"pregiudizio dell'IA", "disuguaglianze dell'IA", "responsabilità dell'IA", "privacy dei dati", spiegabilità dell'IA",
"trasparenza dell'IA", "gestione del rischio", "valutazione dell'IA".

Oltre a riassumere le considerazioni, i risultati e le raccomandazioni che si applicano a ciascuno dei temi
esaminati in questo rapporto, vengono forniti esempi concreti da un'ampia gamma di domini e applicazioni
mediche (ad esempio in radiologia, cardiologia, patologia digitale, chirurgia, medicina d'urgenza, ecc.) per
illustrare le sfide e le potenziali direzioni future dell'IA medica.

1.3. Definizioni
Per introdurre i lettori nel campo dell'IA, la tabella seguente fornisce un elenco di definizioni del principale
termini e concetti utilizzati in questo rapporto.

Tabella 1 – Principali definizioni e concetti nell'IA medica


Termine Definizione

Intelligenza artificiale Qui useremo prima la definizione storica di AI, cioè quando una macchina è in grado di imitare l'intelligenza
(AI) umana o addirittura superarla per eseguire un determinato compito come la previsione o il ragionamento.
Tuttavia, in questo rapporto, ci concentreremo principalmente su un sottocampo dell'IA che è dominante
nell'area sanitaria, vale a dire l'apprendimento automatico (ML).

Apprendimento automatico Il machine learning è un sottocampo dell'intelligenza artificiale e riguarda i metodi che imparano a eseguire
(ml) determinate attività, come la previsione o la classificazione, sulla base di dati esistenti.

Grandi dati Il termine big data viene utilizzato nei casi in cui i campioni di dati sono troppo grandi per essere adeguatamente
analizzati con i tradizionali metodi di intelligenza artificiale. In questo caso, possono essere utilizzati nuovi
metodi come le reti neurali profonde (altrimenti note come deep learning).
(Raghupathi et al., 2014).

Reti neurali Gli NN, tecnicamente noti come NN artificiali, sono circuiti composti da un determinato numero di neuroni
(NN) interconnessi organizzati gerarchicamente in strati e che sono in grado di apprendere a svolgere compiti
altamente complessi dai dati. Ogni neurone agisce come un tipo di unità di elaborazione specializzata che
trasforma i dati di input in segnali di output. Queste trasformazioni sono specifiche dell'applicazione e apprese
dai dati specifici dell'applicazione disponibili. Progressivamente, i neuroni combinano i loro output, strato dopo
strato, approssimando l'elaborazione di una grande funzione complessa, fino a quando la rete emette un risultato
finale, come la previsione di una malattia (Esteva et al., 2019).

Apprendimento approfondito DL si riferisce a NN con più di tre strati; in questo caso, è necessaria la disponibilità di big data per stimare i
valori ottimali dei parametri per questo tipo più ampio e complesso di rete neurale profonda (Goodfellow et al.,
2016). Tieni presente che non tutti gli strumenti AI e ML sono basati su deep learning o NN. Altre tecniche come
alberi decisionali o macchine vettoriali di supporto sono ampiamente utilizzate, specialmente quando il campione
di dati non è sufficientemente grande per costruire NN o deep NN (Figura 1).

Modello AI, Tecnicamente, nella letteratura AI specializzata, un algoritmo AI è la procedura utilizzata per costruire un
algoritmo AI o strumento AI modello AI per un'applicazione specifica, quindi il modello AI è l'output dell'algoritmo di apprendimento
automatico. In altre parole, lo stesso algoritmo AI può essere utilizzato per costruire modelli (ad es. modelli
predittivi) per molte applicazioni diverse, ma

2
Machine Translated by Google

Intelligenza artificiale in sanità

il modello AI è specifico per una data applicazione (ad esempio prevedendo la risposta del paziente a un
dato trattamento antitumorale). Tuttavia, i termini algoritmi AI e modelli AI (o algoritmi ML e modelli ML)
sono spesso usati in modo intercambiabile. Gli strumenti di intelligenza artificiale sono modelli di
intelligenza artificiale che vengono confezionati per essere utilizzati dagli utenti finali, quindi contengono
più del semplice modello di intelligenza artificiale, come le interfacce utente. Nella letteratura non
specialistica, modelli, algoritmi, strumenti, soluzioni e software di intelligenza artificiale sono usati in
modo intercambiabile, soprattutto negli ambienti medici.

Formazione, convalida e I dati di addestramento sono set di dati utilizzati dagli sviluppatori di intelligenza artificiale per addestrare i loro modelli di intelligenza artificiale.

dati di prova I dati di convalida vengono utilizzati anche dagli sviluppatori di intelligenza artificiale. Tuttavia, quest'ultimo
viene utilizzato per ottimizzare i parametri dei modelli AI in modo che possano essere applicati a nuovi
dati diversi dai dati di addestramento. In altre parole, i dati di convalida vengono utilizzati per mettere a
punto i modelli di intelligenza artificiale per renderli generalizzabili (per usare una terminologia della
letteratura tecnica). I dati di test sono nuovi dati distinti da quelli utilizzati per l'addestramento e
l'ottimizzazione dei modelli di intelligenza artificiale. Sono utilizzati per valutare i modelli di IA, idealmente
da valutatori che non hanno preso parte alla fase di sviluppo dell'IA (in altre parole da valutatori
indipendenti esterni, sebbene in pratica i modelli di IA siano ancora ampiamente valutati dagli stessi
team che li hanno sviluppati in primo luogo).

IA medica o IA Questo è un tipo di intelligenza artificiale che si concentra su applicazioni specifiche in medicina o
sanitaria assistenza sanitaria.

Progettazione, Queste sono all'incirca le fasi principali del ciclo di vita dell'IA nel settore sanitario. Innanzitutto vengono
sviluppo, progettati gli strumenti di intelligenza artificiale, generalmente in un approccio di co-creazione e attraverso
valutazione e collaborazioni tra sviluppatori di intelligenza artificiale ed esperti clinici del settore (e talvolta coinvolgendo
implementazione dell'IA anche pazienti e altri esperti come i dirigenti sanitari). Gli sviluppatori di intelligenza artificiale scrivono
del codice per creare e ottimizzare i modelli di intelligenza artificiale dai dati di addestramento e convalida
che hanno a disposizione. Successivamente, il modello AI viene valutato utilizzando dati di test distinti
dai dati di addestramento e convalida. Lo strumento AI (modello AI con un'interfaccia utente) viene
valutato anche con gli utenti finali (ad esempio medici e/o pazienti). Se la valutazione ha esito positivo e
convincente per le parti interessate (ad es. pazienti, medici, dirigenti sanitari, autorità di regolamentazione),
lo strumento AI viene convalidato, approvato e quindi implementato nella pratica. La suddetta pipeline è
ovviamente uno scenario ideale e in pratica esiste un certo grado di variazione nel ciclo di vita dello
sviluppo dell'IA.

Figura 1 – Relazione tra intelligenza artificiale, machine learning e deep learning

3
Machine Translated by Google

STOAA | Panel per il futuro della scienza e della tecnologia

2. Applicazioni dell'intelligenza artificiale in ambito sanitario

Le informazioni generate dalla scienza medica attualmente coprono un ambito molto ampio; sta crescendo
rapidamente e continuerà a farlo sia in volume che in varietà. Parallelamente, il potenziale dell'IA in medicina e
salute è enorme ed è in continua espansione man mano che le tecnologie di intelligenza artificiale vengono
sviluppate dall'industria, dal mondo accademico, dal governo e dagli individui. Si prevede che l'integrazione delle
tecnologie basate sull'intelligenza artificiale nella pratica medica produrrà cambiamenti sostanziali in molte aree
della medicina e dell'assistenza sanitaria (Roski et al., 2019; Fihn et al., 2019).

2.1. Intelligenza artificiale e bisogni sanitari


2.1.1. Principali sfide per i sistemi sanitari dell'UE Prima di passare in

rassegna gli sviluppi più recenti dell'IA medica in questo capitolo, è importante descrivere in dettaglio le principali
sfide sanitarie e le esigenze insoddisfatte che potrebbero trarre vantaggio dall'impiego dell'IA nella futura assistenza
medica:

Invecchiamento della popolazione e malattie croniche. Nel 2017, circa il 37% della popolazione anziana
degli Stati membri dell'UE ha dichiarato di avere in media almeno due malattie croniche. Tra le persone di età pari
o superiore a 80 anni, il 56% delle donne e il 47% degli uomini ha riportato in media più malattie croniche nei paesi
dell'UE (OCSE/Unione europea, 2020).

Mancanza di personale sanitario. I paesi europei soffrono di lacune nell'offerta e nel livello di competenza del
personale sanitario. È stata segnalata una carenza complessiva stimata di 1,6 milioni di operatori sanitari nell'UE
2013; per compensare questa carenza, una crescita esponenziale annua superiore al 2%
sarebbe necessario. Tuttavia, poiché questo tasso di aumento non è stato raggiunto, si prevede che la carenza
prevista raggiungerà i 4,1 milioni entro il 2030 (0,6 milioni di medici, 2,3 milioni di infermieri e 1,3 milioni di altri
operatori sanitari) (WHO, 2016; Michel, 2020).

Inefficienza. Vi sono ampie prove di una diffusa inefficienza nei sistemi sanitari dell'UE (OCSE, 2017). Sebbene la
relativa capacità di un particolare sistema sanitario di trasformare le risorse in risultati differisca da un paese
all'altro, vi è un notevole spreco di risorse sanitarie, che contribuisce a una spesa eccessiva (Medeiros, 2015).

Sostenibilità. La questione relativa alla sostenibilità dei sistemi sanitari è in rapida crescita nell'UE.
Secondo il rapporto OCSE "La salute in sintesi: Europa 2020", l'UE spende l'8,3% del suo PIL per l'assistenza
sanitaria, con marcate differenze di spesa tra le regioni: in Germania e Francia è dell'11% e in Lussemburgo e
Romania meno del 6%. Si prevede che la spesa sanitaria continuerà ad aumentare, principalmente a causa dei
cambiamenti sociodemografici - l'invecchiamento della popolazione e il conseguente aumento delle malattie
croniche e delle esigenze di assistenza a lungo termine - nonché dell'impatto delle nuove tecnologie.
Oltre alle suddette sfide, negli ultimi anni anche i sistemi sanitari dell'UE sono stati sottoposti a una pressione
significativa a causa delle difficoltà economiche (Quaglio, 2020). La pandemia di COVID-19, in particolare, dovrebbe
aumentare la quota di spesa sanitaria del PIL in più paesi.

Disuguaglianze sanitarie. Le disuguaglianze e le disuguaglianze sanitarie persistono tra gli Stati membri dell'UE
e le loro popolazioni. Il diritto di ogni cittadino dell'UE a un accesso tempestivo a cure a prezzi accessibili, preventive
e curative di alta qualità è uno dei principi chiave del pilastro europeo dei diritti sociali recentemente proclamato
(Commissione europea. Il pilastro europeo, 2021). Un recente rapporto ha individuato diverse sfide e disuguaglianze
relative all'accesso all'assistenza sanitaria, in particolare: (a) risorse pubbliche inadeguate investite nel sistema
sanitario; (b) copertura della popolazione frammentata; (c) lacune nella gamma di prestazioni coperte; d) diritti
d'utenza proibitivi, in particolare per i prodotti farmaceutici; (e) mancanza di protezione dei gruppi vulnerabili dai
diritti di utenza; (f) mancanza di trasparenza su come vengono fissate le priorità della lista d'attesa; (g) inadeguata
disponibilità di servizi, in particolare nelle zone rurali; (h) problemi con

4
Machine Translated by Google

Intelligenza artificiale in sanità

attrarre e trattenere gli operatori sanitari; (i) difficoltà nel raggiungere comunità particolarmente vulnerabili che hanno
un accesso limitato a un'assistenza sanitaria di qualità, come le minoranze etniche e le persone svantaggiate dal
punto di vista socioeconomico; (j)pregiudizio razziale e fornitura di assistenza sanitaria ineguale (Commissione
europea. Uno studio sulle politiche nazionali 2018; Hamed, 2020).

2.1.2. Principali domini applicativi per l'IA in ambito sanitario


Ad oggi, l'IA è stata progressivamente sviluppata e introdotta praticamente in tutti i settori della medicina, dalle cure
primarie alle malattie rare, dalla medicina d'urgenza, alla ricerca biomedica e alla sanità pubblica.
Si prevede che anche molti aspetti gestionali relativi all'amministrazione sanitaria (ad es. maggiore efficienza, controllo
di qualità, riduzione delle frodi) e alla politica beneficeranno dei nuovi strumenti mediati dall'IA (Gómez-González,
2020).

Gli strumenti di intelligenza artificiale nel settore sanitario sono stati spesso classificati in base ai gruppi di utenti delle parti interessate, ad es
1) pazienti e cittadini; 2) clinici e caregivers; 3) amministratori sanitari; e 4) professionisti della sanità pubblica e
responsabili politici. La classificazione degli strumenti di IA biomedica può basarsi anche sul contesto in cui gli
strumenti vengono utilizzati: 1) contesti clinici (ospedali, centri di cure primarie, centri di pronto soccorso); 2) contesti
di elaborazione e gestione clinica (laboratorio, farmacia, radiologia, ecc.); e 3) impostazioni amministrative.

Ai fini di questo studio, adottiamo una classificazione più completa delle applicazioni dell'IA, suddividendole in quattro
pratiche: 1) clinica; 2) ricerca; 3) sanità pubblica; e 4) amministrativo (figura 2). Le sezioni successive forniscono un
riepilogo degli attuali sviluppi e delle applicazioni dell'IA in queste quattro aree.

Figura 2 – Principali classi di strumenti di intelligenza artificiale presi in esame in questo rapporto

Pratica clinica Ricerca biomedica

Strumenti di intelligenza artificiale in sanità

Salute pubblica Amministrazione sanitaria

2.2. AI nella pratica clinica


Il potenziale per l'applicazione dell'IA in ambito clinico è enorme e spazia dall'automazione dei processi diagnostici al
processo decisionale terapeutico e alla ricerca clinica. I dati necessari per la diagnosi e il trattamento provengono da
molte fonti, tra cui note cliniche, test di laboratorio, dati farmaceutici, imaging medico e informazioni genomiche.

L'intelligenza artificiale svolgerà un ruolo importante in attività quali l'automazione dell'analisi delle immagini (ad es.
radiologia, oftalmologia, dermatologia e patologia) e l'elaborazione dei segnali (ad es. elettrocardiogramma, audiologia
ed elettroencefalografia). Oltre alla sua implementazione nell'interpretazione di test e immagini, l'intelligenza artificiale
potrebbe essere utilizzata per integrare e allineare i risultati con altri dati clinici per facilitare i flussi di lavoro clinici
(Topol et al., 2019). Esistono molti esempi impressionanti in contesti clinici in cui vengono applicati strumenti di intelligenza artificiale, a
numero dei quali sono esposti di seguito. Le sezioni seguenti toccano anche la possibile applicazione dell'IA in aree
specifiche della medicina che sono meno segnalate, come la nefrologia e la medicina personalizzata.

5
Machine Translated by Google

STOAA | Panel per il futuro della scienza e della tecnologia

2.2.1. Radiologia
La radiologia è tra le specialità mediche che hanno visto significativi sviluppi dell'IA negli ultimi anni. Le tecnologie di
imaging AI si mostrano promettenti nell'assistere i radiologi nel lavoro di quantificazione delle immagini mediche. Ad
esempio, la segmentazione con supervisione umana limitata è stata ottenuta utilizzando modelli di reti profonde, che
consentono di localizzare e delineare automaticamente i confini di strutture o lesioni anatomiche (Peng & Wang, 2021).
Questi strumenti di intelligenza artificiale possono anche stabilire le priorità e tenere traccia dei risultati che richiedono
un'attenzione precoce e consentire ai radiologi di concentrarsi sulle immagini che hanno maggiori probabilità di essere
anormali (Lee et al., 2018; Peng & Wang, 2021). Un buon esempio di strumenti AI per la segmentazione delle immagini
mediche è "cvi42", una piattaforma di imaging cardiovascolare commercializzata dalla società canadese Circle CVI che
è stata adottata in oltre 40 paesi (Zange et al., 2019).

La radiomica è un'altra tecnica di elaborazione delle immagini in cui l'intelligenza artificiale si è dimostrata utile. Sebbene
il termine non sia strettamente definito, la radiomica generalmente mira a estrarre informazioni quantitative (le cosiddette
caratteristiche radiomiche), dalle immagini diagnostiche e di pianificazione del trattamento (Gillies, 2016; Mayerhoefer
et al., 2020). Le caratteristiche radiomiche catturano le caratteristiche del tessuto e della lesione, come l'eterogeneità e
la forma, e possono essere utilizzate per la risoluzione di problemi clinici da sole o in combinazione con dati demografici,
istologici, genomici o proteomici. L'impatto della radiomica aumenta quando la ricchezza di informazioni che fornisce
viene elaborata utilizzando tecniche di intelligenza artificiale (Cook et al., 2019; Mayerhoefer et al., 2020).

Una recente meta-analisi ha confrontato le prestazioni del software di deep learning e dei radiologi nel campo della
diagnosi basata sull'imaging (Liu, 2019). Secondo lo studio, le prestazioni diagnostiche dei modelli di deep learning sono
equivalenti a quelle degli operatori sanitari. Tuttavia, un risultato importante della revisione è che la maggior parte degli
studi analizzati presenta gravi limitazioni: (i) la maggior parte degli studi ha adottato l'approccio di valutare l'accuratezza
diagnostica del deep learning in modo isolato (molti studi sono stati esclusi allo screening perché non hanno fornito
confronti tra l'uomo e la macchina); (ii) pochissimi studi hanno riportato confronti con operatori sanitari utilizzando lo
stesso set di dati di test; (iii) c'erano pochissimi studi prospettici condotti in ambienti clinici reali (la maggior parte degli
studi erano retrospettivi e basati su set di dati precedentemente assemblati); iv) gli studi esaminati hanno mostrato
incoerenze sulla terminologia chiave.

2.2.2. Patologia digitale


Il termine patologia digitale è stato inizialmente coniato per includere il processo di digitalizzazione delle immagini
dell'intero vetrino utilizzando tecniche avanzate di scansione del vetrino. Ora si riferisce anche ad approcci basati
sull'intelligenza artificiale per il rilevamento e l'analisi di immagini digitalizzate (Bera et al., 2019; Niazi et al., 2019).
Mentre l'uso di linee guida standardizzate può supportare l'armonizzazione dei processi diagnostici, istopatologici
l'analisi è intrinsecamente limitata dalla sua natura soggettiva e dalle differenze di giudizio tra esperti indipendenti (Chi
et al., 2016; Evans et al., 2008; Bera et al., 2019).

L'intelligenza artificiale può contribuire ad alleviare alcune delle sfide affrontate da oncologi e patologi, inclusa la
variabilità tra soggetti e tra operatori. Diversi studi dimostrano che l'IA può avere un livello di accuratezza simile a quello
dei patologi (Ehteshami Bejnordi et al., 2017) e, cosa più significativa, può migliorare le loro prestazioni diagnostiche se
utilizzata in tandem (Steiner et al., 2018; Bera et al., 2019). Nella patologia digitale, l'intelligenza artificiale è stata
applicata a una varietà di attività di elaborazione e classificazione delle immagini. Questi includono compiti di basso
livello come il rilevamento, incentrati sui problemi di riconoscimento degli oggetti (Sornapudi et al., 2018), nonché compiti
di livello superiore come la previsione della diagnosi e della prognosi della malattia (Corredor et al., 2018), la valutazione
della gravità e dell'esito della malattia (Mobadersany et al., 2018) e l'utilizzo di test per prevedere la risposta alla terapia
(Bera, 2019).

2.2.3. Medicina d'emergenza


La medicina d'urgenza può beneficiare dell'IA in diverse fasi della gestione del paziente. Ad esempio,
offre un valore potenziale per una migliore definizione delle priorità dei pazienti durante il triage ed è versatile nell'analisi

6
Machine Translated by Google

Intelligenza artificiale in sanità

diversi elementi della storia clinica del paziente. Attualmente, i pazienti vengono valutati con informazioni limitate nel
pronto soccorso (Berlyand et al., 2019; Kirubarajan et al., 2020). Tuttavia, esiste la possibilità di ottimizzare le
metriche di flusso del dipartimento di emergenza e l'allocazione delle risorse attraverso il processo decisionale
guidato dall'intelligenza artificiale (Berlyand et al., 2018). Tuttavia, permangono preoccupazioni in merito all'uso dell'IA
per la sicurezza dei pazienti, considerando il numero limitato di prove a sostegno della sua attuazione (Challen et al.,
2019; Kirubarajan et al., 2020).

Una recente revisione dell'ambito ha analizzato le applicazioni dell'IA nella medicina d'urgenza in un totale di 150
studi (Kirubarajan et al., 2020). Secondo la revisione, la maggior parte degli interventi è incentrata su: (i) le capacità
predittive dell'IA; (ii) migliorare la diagnosi all'interno del pronto soccorso; (iii) studi incentrati sul triage delle condizioni
emergenti; e iv) studi dimostrativi
che l'intelligenza artificiale può aiutare con la pianificazione e la gestione organizzativa all'interno del pronto soccorso.

2.2.4. Chirurgia
Nell'area della chirurgia, a volte le decisioni devono essere prese in tempi ristretti e in condizioni di incertezza per
quanto riguarda le diagnosi di un singolo paziente e la risposta prevista al trattamento.
L'incertezza può essere imposta dall'indisponibilità dei dati del paziente (ad es. cartelle cliniche esterne o test
diagnostici) o dall'assenza di prove di alto livello per guidare importanti decisioni di gestione.
In tali limiti di tempo e incertezza, i medici possono invece fare affidamento su scorciatoie cognitive e giudizi improvvisi
utilizzando il riconoscimento di schemi e l'intuizione (Dijksterhuis et al., 2006; Loftus et al., 2020).

In definitiva, questi fattori possono portare a pregiudizi, errori e danni prevenibili. In una serie di condizioni, gli
strumenti tradizionali di supporto alle decisioni sembrano non essere sufficientemente attrezzati per far fronte ai limiti
di tempo e all'incertezza riguardo alle diagnosi e alla risposta prevista al trattamento, che possono entrambi
compromettere il processo decisionale chirurgico (Loftus, 2020). Queste sfide possono essere superate dai modelli
di IA (Loftus et al., 2019). Infatti, gli strumenti di intelligenza artificiale forniscono diverse fonti di informazioni (fattori
di rischio del paziente, informazioni anatomiche, ecc.) che possono aiutare nello sviluppo di migliori decisioni
chirurgiche (Shickel et al., 2019; Hashimoto et al., 2019).

2.2.5. Previsione del rischio


La previsione del rischio si concentra sulla valutazione della probabilità che gli individui soffrano di una specifica
condizione di salute o di esiti. Generalmente genera probabilità per un'ampia gamma di esiti che vanno dalla morte
agli eventi avversi della malattia (ad es. ictus, infarto miocardico, frattura ossea). Il processo prevede l'identificazione
di individui con determinate malattie o condizioni e la loro classificazione
in base allo stadio, alla gravità e ad altre caratteristiche. Questi individui possono successivamente essere destinati
a ricevere specifici interventi medici (Miotto et al., 2016; Steele et al., 2018; Fihn et al., 2019).

I modelli di previsione del rischio sono disponibili da tempo nel settore sanitario. Tuttavia, questi sono attualmente
basati su analisi di regressione e sottoinsiemi di dati clinici disponibili, con conseguente accuratezza di previsione
limitata che li rende meno preziosi in ambito clinico. È importante sottolineare che l'avvento di grandi archivi di dati e
tecniche di intelligenza artificiale ha mostrato segnali promettenti per l'utilità dell'IA nell'adattare approcci convenzionali
specifici per paziente per la previsione del rischio (Islam, 2019). Ad esempio, i modelli predittivi basati sull'intelligenza
artificiale nelle valutazioni del rischio di malattie cardiovascolari hanno mostrato prestazioni migliori rispetto a
modelli predittivi di rischio derivati statisticamente (Jamthikar et al., 2019).

2.2.6. Interventi adattivi


Gli interventi adattivi, definiti anche "interventi adattivi just-in-time", sono progetti di intervento volti a fornire il giusto
tipo e livello di supporto adattandosi continuamente ai mutevoli stati interni e contestuali di un individuo (Almirall et
al., 2014). In particolare, questo consente di
regolare la frequenza, la durata e il dosaggio dei farmaci in momenti diversi durante il corso della cura.

7
Machine Translated by Google

STOAA | Panel per il futuro della scienza e della tecnologia

Gli interventi adattivi guidati dall'intelligenza artificiale possono fornire supporto nel trattamento medico attraverso
due diversi percorsi: (i) input diretto, tramite autovalutazioni da parte dei pazienti; o (ii) tramite raccolta dati
passiva, in cui le informazioni fisiologiche vengono raccolte utilizzando sensori speciali. L'utilizzo di tecnologie
mobili per raccogliere autovalutazioni è indicato come valutazione momentanea ecologica (De Vries et al., 2020). Il dopo
aiuta le persone ad auto-monitorare i comportamenti nel momento e nel contesto in cui si verificano.

Ad esempio, la valutazione momentanea ecologica ha diversi vantaggi nei disturbi da uso di sostanze, come
l'aumento della capacità di correlare i casi di desiderio con comportamenti disadattivi. La raccolta passiva dei dati
si basa spesso su tecnologie che registrano modelli di movimento all'interno dell'ambiente del paziente, ad
esempio tramite il sistema di posizionamento globale (GPS) e le reti locali wireless (Wi-Fi), che vengono utilizzate
per acquisire dati basati sulla posizione (Vijayan et al., 2021).

La possibilità di raccogliere informazioni spaziali e temporali (ovvero dove e quando si sono verificati i
comportamenti del soggetto) rende questi strumenti altamente specifici. Inoltre, le informazioni fisiologiche
provenienti da sensori speciali (come quelli che misurano la pressione sanguigna, la frequenza cardiaca, la
temperatura o i livelli di concentrazione di sostanze nel sangue), possono essere combinate con dati spaziali e
temporali al fine di ottenere un profilo più dettagliato del comportamento del paziente, compreso il monitoraggio
delle risposte fisiologiche o dei precursori del craving (Quaglio et al., 2019).

2.2.7. Cura della casa

Nel 2019, più di un quinto (20,3%) della popolazione dell'UE-27 aveva 65 anni e più. Si prevede che la percentuale
di persone di età pari o superiore a 80 anni aumenterà di due volte e mezzo tra il 2019 e il 2100, dal 5,8% al
14,6% (Eurostat. Statistical ampliato, 2020). Vale la pena notare che la prevalenza della demenza aumenta
rapidamente con l'età (Quaglio et al., 2016). Nel 2018, si stima che 9,1 milioni di persone di età superiore ai 60
anni convivessero con la demenza negli Stati membri dell'UE (circa il 7% della popolazione di età superiore ai 60
anni), rispetto ai 5,9 milioni del 2000. In effetti, la percentuale di persone che vivono con la demenza nei paesi
dell'UE dovrebbe aumentare di circa il 60% nei prossimi due decenni e raggiungere i 14,3 milioni entro il 2040
(OCSE/UE, 2018).

È importante sottolineare che l'IA può svolgere un ruolo significativo nell'autogestione delle malattie croniche e
delle malattie che colpiscono gli anziani. Le attività di autogestione vanno dall'assunzione di farmaci
all'adeguamento della dieta del paziente e alla gestione dei dispositivi sanitari. Il monitoraggio domestico ha il
potenziale per aumentare l'indipendenza e migliorare l'invecchiamento a casa tenendo traccia dello spazio fisico
e delle cadute. In particolare, strumenti, software, smartphone e applicazioni mobili possono consentire ai pazienti
di gestire gran parte della propria assistenza sanitaria e facilitare le loro interazioni con il sistema sanitario (Sapci
et al., 2019).

Tuttavia, le case intelligenti presentano diversi inconvenienti, in particolare: 1) cambiare lo stile di vita degli utenti;
2) difficoltà nell'uso delle tecnologie per la casa intelligente; 3) interoperabilità tra sistemi; E
4) vincoli di privacy e sicurezza. Nonostante gli attuali progressi, l'adozione di queste tecnologie domestiche
emergenti non è ancora all'altezza delle esigenze degli utenti finali, spingendo alla ricerca di nuove strategie (Azzi
et al., 2020).

2.2.8. Cardiologia

L'applicazione più promettente dell'IA è l'elaborazione automatizzata dei dati di imaging cardiaco, necessaria per
la valutazione della struttura e della funzione cardiaca in cardiologia (Lopez-Jimenez et al., 2020). Le modalità di
imaging cardiaco come l'ecografia cardiaca, la tomografia computerizzata cardiaca e la risonanza magnetica
cardiovascolare forniscono dati spaziotemporali complessi che sono noiosi e richiedono tempo per l'elaborazione
da parte dei cardiologi. La disponibilità di nuove tecniche di elaborazione delle immagini cardiache guidate
dall'intelligenza artificiale ha rivoluzionato la pratica clinica cardiaca consentendo ai cardiologi di effettuare una
valutazione più rapida dei pazienti nella loro pratica quotidiana (Lopez-Jimenez et al., 2020).

8
Machine Translated by Google

Intelligenza artificiale in sanità

I modelli di machine learning (ML) sono impostati per migliorare la capacità diagnostica dell'ecocardiografia
che costituisce la modalità di imaging cardiaco predominante, ma rimane fortemente dipendente dall'esperienza
umana (Alsharqi et al., 2018). La generazione di ecocardiogrammi più accurati e automatizzati con l'uso dell'intelligenza
artificiale dovrebbe rivelare caratteristiche di imaging non riconosciute che faciliteranno la diagnosi di malattie
cardiovascolari riducendo al minimo i limiti associati all'interpretazione umana.

Questo è già il caso dell'elettrocardiografia (ECG), per la quale sono stati generati modelli di IA - come le reti neurali
convoluzionali di deep learning - con l'uso di grandi set di dati ECG digitali derivati da cartelle cliniche (Siontis et al.,
2021). Di conseguenza, gli ECG abilitati all'intelligenza artificiale sono ora in grado di identificare malattie come la
disfunzione ventricolare sinistra asintomatica e la fibrillazione atriale silente, nonché caratteristiche fenotipiche tra cui
sesso, età e razza (Adedinsewo et al, 2020; Attia et al., 2019a; Attia et al., 2019b; Noseworthy et al., 2020).

Inoltre, l'intelligenza artificiale è stata ampiamente utilizzata nella cardiologia nucleare, che studia, tra le altre cose,
strumenti di imaging non invasivi che valutano il flusso sanguigno miocardico. I modelli ML sono stati applicati a due
tecniche in particolare; tomografia computerizzata a emissione di fotone singolo (SPECT) e imaging della perfusione
miocardica (MPI), per migliorare in definitiva il rilevamento e la prognosi della malattia coronarica ostruttiva
(Noseworthy et al., 2020). Si ritiene che i punteggi di rischio cardiaco
(calcolo del rischio a 10 anni di presentarsi con malattie cardiovascolari) sarà valutato in modo più accurato con l'uso
di algoritmi ML in grado di estrapolare informazioni e delineare modelli non visti nei dati derivati dalle cartelle cliniche
(Quer et al., 2021).

Sebbene la medicina cardiovascolare sembri essere in prima linea nell'IA nella salute, dipenderà sempre, in una certa
misura, dall'esperienza degli specialisti cardiovascolari. Pertanto, è importante che i professionisti siano coinvolti
attivamente in questo campo nuovo ed emergente affinché le tecniche di elaborazione delle immagini raggiungano il
loro pieno potenziale e forse rivoluzionino la cura del paziente (Quer et al., 2021).

2.2.9. Nefrologia
L'applicazione dell'IA in nefrologia è meno segnalata che in altri campi della medicina
(Lindenmeyer et al., 2021; Chaudhuri et al., 2021). Tuttavia, il suo potenziale è sempre più in essere
riconosciuta dai medici grazie ai promettenti progressi compiuti nell'ultimo decennio. Ad esempio, un nuovo modello
di deep learning per l'imaging renale a ultrasuoni classifica in modo non invasivo la malattia renale cronica (CKD)
(Kuo et al., 2019). Inoltre, l'analisi digitale delle immagini istopatologiche è stata facilitata dallo sviluppo di una rete
neurale profonda in grado di annotare e classificare le biopsie renali umane (Hermsen, 2019). Nel tentativo di
migliorare il trattamento precoce della lesione renale acuta (AKI), gli scienziati hanno approfittato del diffuso aumento
dei dati trovati nelle cartelle cliniche elettroniche per sviluppare un modello di intelligenza artificiale che consenta la
previsione fino a 48 ore di episodi di AKI in regime di ricovero (Tomašev, 2019). D'altra parte, il cosiddetto algoritmo
"Intraoperative Data Embedded Analytics" () è stato addestrato per prevedere il rischio di sviluppare AKI postoperatorio
IDEA
integrando i dati fisiologici derivati prima e dopo un'operazione (Adhikari et al., 2019).

L'intelligenza artificiale ha anche un potenziale nella diagnosi assistita da computer del cancro del rene. Man mano
che gli algoritmi stanno diventando più robusti e generalizzabili, sono sempre più efficaci nell'identificare le masse renali
e distinguendo tra benigni e cancerosi (Giulietti et al., 2021). Nel complesso, l'implementazione di modelli di
intelligenza artificiale in nefrologia faciliterà probabilmente la prognosi, rafforzerà la medicina personalizzata e ridurrà
il carico globale delle malattie renali (Park et al., 2021).

2.2.10. Epatologia
La ricerca sull'IA sta progredendo costantemente in molte aree della medicina e l'epatologia non fa eccezione (Ahn
et al., 2021). I modelli ML sono stati ampiamente utilizzati per facilitare la diagnosi di molteplici tipi di malattie del
fegato, la maggior parte delle quali sono pericolose per la vita. L'interesse si è concentrato principalmente sul
rilevamento automatico della steatosi epatica non alcolica (NAFLD), poiché la maggior parte dei pazienti rimane

9
Machine Translated by Google

STOAA | Panel per il futuro della scienza e della tecnologia

asintomatico fino allo sviluppo della cirrosi epatica. Una rete neurale AI recentemente sviluppata mostra
un'accuratezza del 97,2% nella diagnosi di NAFLD (Okanoue et al., 2021).

È importante sottolineare che lo stesso modello è in grado di distinguere tra pazienti con NAFLD e quelli con la
sua forma più avanzata, NASH (steato-epatite non alcolica). Sono stati inoltre sviluppati modelli predittivi per
stimare la gravità e la prognosi dell'epatite virale cronica, nonché dell'insufficienza epatica acuta on-cronica (Ahn
et al., 2021). Nonostante i notevoli progressi nell'IA e nell'epatologia, una serie di condizioni rimane poco studiata
sotto questo aspetto, come le malattie epatiche associate all'alcol e le malattie epatiche genetiche/autoimmuni,
che richiedono un'adozione più diffusa dell'IA in epatologia (Ahn et al., 2021).

2.2.11. Salute mentale


L'UE soffre di un notevole onere per la salute mentale. I disturbi neuropsichiatrici costituiscono il 26%
delle malattie negli Stati membri dell'UE. Fino al 40% degli anni vissuti con disabilità nell'UE può essere attribuito
a questi tipi di disturbi mentali, e in particolare alla depressione (WHO, 2021a). Il costo dei disturbi dell'umore e
dell'ansia nell'UE è di circa 170 miliardi di euro all'anno (WHO, 2021a). Inoltre, è stato dimostrato che la
depressione e l'ansia contribuiscono notevolmente al congedo per malattia cronica dal posto di lavoro
e che questi disturbi, in particolare la depressione maggiore, spesso non vengono curati.

Esiste il potenziale per l'IA di fornire supporto ai pazienti con problemi di salute mentale e mitigare gli effetti di a
scarsità di personale sanitario dedicato alle condizioni di salute mentale. Infatti, vari strumenti sono attualmente
in fase di sviluppo. Questi includono il monitoraggio digitale della depressione e dell'umore tramite l'interazione
con la tastiera, il parlato, la voce, il riconoscimento facciale, i sensori e l'uso di chatbot interattivi (Firth et al, 2017;
Fitzpatrick et al., 2017; Mohr et al., 2018).

La potenza computazionale sfruttata dai sistemi di intelligenza artificiale potrebbe essere sfruttata per rivelare la
complessa fisiopatologia dei disturbi psichiatrici e quindi informare meglio le applicazioni terapeutiche (Graham
2019; Lee, 2021). L'apprendimento automatico è stato esplorato per prevedere l'efficacia dei farmaci antidepressivi
(Chekroud et al., 2016), caratterizzare la depressione (Wager et al., 2017), prevedere il suicidio (Walsh et al.,
2017) e la psicosi negli schizofrenici (Chung et al., 2018).

L'intelligenza artificiale può aiutare a differenziare le diagnosi con presentazioni cliniche sovrapposte ma con
diverse opzioni di trattamento (Dwyer et al., 2018). Gli esempi includono l'identificazione della depressione
bipolare rispetto a quella unipolare (Redlich et al., 2014) o la differenziazione tra i tipi di demenza (Lee et al.,
2021).

Al giorno d'oggi, i social media rappresentano una forma di comunicazione quotidiana per una vasta parte della
popolazione. Pertanto, l'esame del contenuto e dei modelli linguistici dei social media può fornire approfondimenti
e creare nuove opportunità per la diagnosi psichiatrica predittiva. Le condizioni mentali possono diventare
osservabili in contesti online, mentre le informazioni sui social media analizzate con l'apprendimento automatico
sono già state sfruttate per prevedere diagnosi e ricadute (Reece et al., 2017; Birnbaum
et al., 2019; Yazdavar et al., 2020; Lee et al., 2021).

2.3. AI nella ricerca biomedica


2.3.1. Ricerca clinica
La ricerca biomedica sembra trarre maggiori benefici dalle soluzioni derivate dall'IA rispetto alle applicazioni
cliniche, con i recenti progressi che mostrano anche promettenti applicazioni dell'IA nel recupero delle conoscenze
cliniche. Ad esempio, le principali risorse di conoscenza medica stanno già utilizzando algoritmi ML per classificare
i risultati di ricerca, inclusi algoritmi che apprendono continuamente dal comportamento di ricerca degli utenti
(Fiorini et al., 2018a).

10
Machine Translated by Google

Intelligenza artificiale in sanità

Un esempio è PubMed, un motore di ricerca ampiamente utilizzato per la letteratura biomedica (Fiorini et al., 2018b).
Le tecnologie di intelligenza artificiale implementate da PubMed per ottimizzare la sua funzione di ricerca includono
l'apprendimento automatico e gli algoritmi di elaborazione del linguaggio naturale che vengono addestrati sui modelli
trovati nelle attività degli utenti al fine di migliorare la ricerca di un utente (Fiorini et al., 2018b). Ad esempio, Best
Match è un nuovo algoritmo di ricerca per PubMed che sfrutta l'intelligenza degli utenti di PubMed e il ML all'avanguardia
tecnologia come alternativa al tradizionale ordinamento per data. L'algoritmo Best Match viene addestrato utilizzando
le ricerche precedenti degli utenti con dozzine di segnali (fattori) di classificazione della pertinenza, il più importante
dei quali è l'utilizzo passato di un articolo, la data di pubblicazione, il punteggio di pertinenza e il tipo di articolo. Questo
algoritmo ha migliorato significativamente la ricerca di informazioni rilevanti rispetto all'ordine temporale predefinito in
PubMed e ha aumentato l'utilizzo della ricerca di pertinenza nel tempo (Fiorini et al., 2018b). Attraverso tecniche come
l'estrazione di informazioni, il riepilogo automatico e il deep learning, l'IA ha il potenziale per trasformare articoli
narrativi statici in prove cliniche specifiche del paziente (Elliott et al., 2014).

2.3.2. Scoperta di nuovi farmaci


I progettisti di farmaci applicano spesso tecniche ML per estrarre informazioni chimiche da grandi database di composti
e per progettare nuovi farmaci. Al centro di questo cambiamento c'è lo sviluppo di approcci di intelligenza artificiale
per implementare modelli innovativi basati sulla grande natura dei set di dati sui farmaci. Di conseguenza, gli approcci
di intelligenza artificiale sviluppati di recente forniscono nuove soluzioni per migliorare l'efficacia e la valutazione della
sicurezza dei farmaci candidati sulla base della modellazione e dell'analisi dei big data.

Modelli di intelligenza artificiale come questi possono facilitare una maggiore comprensione di un'ampia gamma di tipi
di farmaci e dei risultati clinici che possono offrire (Zhu et al., 2020). Ad esempio, i ricercatori hanno recentemente
addestrato un algoritmo di apprendimento profondo per prevedere la potenziale attività antimicrobica delle molecole.
L'algoritmo ha esaminato oltre un miliardo di molecole e ne ha virtualmente testate oltre 107 milioni, identificando otto
composti antibatterici strutturalmente distanti dagli antibiotici noti (Stokes et al., 2020).

Rispetto ai tradizionali modelli animali, sia i test in vitro che in silico hanno un grande potenziale in
abbassare il costo della scoperta di nuovi farmaci. L'applicazione di approcci in vitro e in silico nelle prime fasi delle
procedure di ricerca e sviluppo di farmaci può ridurre il numero di attriti da farmaci (Zhang et al., 2017). L'intelligenza
artificiale ha un grande potenziale come metodo per valutare i composti in base alle loro capacità biologiche e tossicità.
I modelli di intelligenza artificiale esistenti, come quelli basati su approcci di relazione quantitativa struttura-attività
(QSAR) (Golbraikh et al., 2016), possono essere utilizzati per prevedere un gran numero di nuovi composti per vari
punti finali biologici.

Tuttavia, le risultanti previsioni del modello QSAR di nuovi composti sono caratterizzate da una serie di limitazioni
(Zhao et al., 2017; Zhu et al., 2020). Negli ultimi dieci anni, nuovi sforzi hanno stimolato lo sviluppo di tecniche di
screening ad alto rendimento (HTS) (Zhu et al., 2014). HTS è un processo che esegue lo screening da migliaia a
milioni di composti utilizzando un protocollo standardizzato. Facilitati dagli sforzi combinati di HTS e sintesi chimica
combinatoria, i moderni programmi di screening possono produrre enormi quantità di dati biologici (Zhu et al., 2020).

2.3.3. Test clinici


Gli studi randomizzati controllati (RCT) sono il metodo più affidabile per valutare i rischi ei benefici di qualsiasi
intervento medico. Tuttavia, intraprendere un RCT non è sempre fattibile. Le difficoltà comuni degli RCT senza
successo includono una scarsa selezione dei pazienti, una randomizzazione inadeguata, una dimensione del
campione insufficiente e una scarsa selezione degli endpoint (Lee et al., 2020). I modelli di intelligenza artificiale
possono essere addestrati per selezionare meglio i partecipanti allo studio con metodi statistici avanzati e per valutare
i punti finali dello studio in un metodo basato sui dati. L'applicazione dell'IA genererà un'esecuzione più efficiente e
una maggiore potenza statistica rispetto a quella prevista dagli RCT tradizionali (Lee et al., 2020).

11
Machine Translated by Google

STOAA | Panel per il futuro della scienza e della tecnologia

Oltre all'efficiente processo di selezione, avere una dimensione del campione sufficientemente ampia è fondamentale
per consentire il rilevamento di differenze statisticamente significative tra i gruppi. Molti RCT richiedono una dimensione
del campione considerevole perché l'effetto del trattamento in questione può essere piccolo. L'intelligenza artificiale ha
il potenziale per selezionare i pazienti giusti per gli RCT. Inoltre, l'intelligenza artificiale può consentire una quantificazione
più sensibile degli endpoint chiave dello studio rispetto al modo in cui vengono solitamente misurati. Anche l'IA lo farà
migliorare e integrare gli RCT in modo significativo in futuro. Tuttavia, è necessaria una maggiore collaborazione e
sinergia tra medici, ricercatori e industrie affinché gli algoritmi di intelligenza artificiale possano essere utilizzati al
massimo del loro potenziale negli RCT (Lee et al., 2020).

2.3.4. Medicina personalizzata


La medicina personalizzata si basa fortemente su una comprensione scientifica di come le caratteristiche uniche di un
singolo paziente, come i profili molecolari e genetici, rendano questo paziente vulnerabile a una malattia e sensibile a
un trattamento terapeutico (Strianese et al., 2020). Sono stati identificati centinaia di geni per il loro contributo alla
malattia umana e la variabilità genetica nei pazienti è stata utilizzata anche per distinguere le risposte individuali ai
trattamenti (Zhu et al., 2020; Strianese et al., 2020).

Il concetto originale di medicina personalizzata è stato ampliato per includere altre proprietà e caratteristiche cliniche
individuali per formare infine un nuovo concetto chiamato "medicina personalizzata estesa". Quest'ultimo è sviluppato
da ulteriori fonti di informazione come fonti cliniche, dati demografici, dati sociali, parametri dello stile di vita (ore di
sonno, attività fisica, abitudini alimentari, ecc.), condizioni ambientali, ecc. (Gómez-González, 2020).

Gli strumenti di intelligenza artificiale possono migliorare i progressi compiuti nella medicina personalizzata valutando il
vantaggio clinico di diversi metodi di ricerca e molteplici tipi di dati (Mamoshina et al., 2018). Le previsioni sui bersagli
farmacologici (Sydow et al., 2019), la modellazione della rete metabolica e le identificazioni di pattern genetici della
popolazione (Schrider et al., 2018) costituiscono alcuni dei recenti progressi in questo campo che si basano sulla
modellazione computazionale (Lorkowski et al., 2021). Per avere un vero impatto sulle cure di routine, tuttavia, i dati
devono rappresentare la diversità delle popolazioni di pazienti (OCSE, 2020). Pertanto, il passaggio a un sistema di
medicina personalizzata basato sui dati avrà implicazioni di vasta portata per i pazienti, i medici e l'industria farmaceutica
(Boniolo et al., 2021).

2.4. AI per la salute pubblica e globale


2.4.1. Salute pubblica

La salute pubblica ha molte definizioni, ma quella usata frequentemente è che è "la scienza e l'arte di prevenire le
malattie, prolungare la vita e promuovere la salute attraverso gli sforzi organizzati e le scelte informate della società,
delle organizzazioni, pubbliche e private, delle comunità e degli individui".
(Wanless, 2004). Sono attualmente in corso esperimenti con soluzioni di intelligenza artificiale pertinenti in una serie di
aree della sanità pubblica. Un numero selezionato di queste aree è discusso di seguito.

L'intelligenza artificiale può aiutare a identificare specifici dati demografici o posizioni geografiche in cui esiste la
prevalenza di malattie o comportamenti ad alto rischio (Maharana & Nsoesie, 2018; Shin et al., 2018). Anche la gamma
di soluzioni di intelligenza artificiale che possono migliorare la sorveglianza delle malattie è considerevole. La
sorveglianza epidemiologica digitale si riferisce all'integrazione della sorveglianza basata su casi ed eventi (ad es.
notizie e media online, sensori, tracce digitali, dispositivi mobili, social media, laboratori microbiologici e rapporti clinici)
per analizzare gli approcci per la verifica delle minacce. Questo è stato implementato per costruire sistemi di allerta
precoce per eventi avversi da farmaci e inquinamento atmosferico (Mooney & Pejaver, 2018).

L'intelligenza artificiale ha già fatto breccia nella salute ambientale e occupazionale attraverso i dati generati da sensori
e robot. L'intelligenza artificiale ha il potenziale per intensificare il contatto con i pazienti, nonché per indirizzare i servizi
ai pazienti. Una componente essenziale di queste iniziative è il contatto con grandi numeri

12
Machine Translated by Google

Intelligenza artificiale in sanità

dei pazienti tramite una varietà di metodi automatizzati e facilmente scalabili, come i messaggi di testo e i portali dei
pazienti (Fihn et al., 2019).

2.4.2. Salute globale


L'intelligenza artificiale può fornire opportunità per affrontare le sfide sanitarie nei paesi a basso e medio reddito (LMIC).
Queste sfide includono gravi carenze di personale sanitario e deboli sistemi di sorveglianza della sanità pubblica.
Sebbene non siano esclusive di tali paesi, queste sfide sono particolarmente rilevanti nei contesti a basso e medio
reddito, dato il loro contributo alla morbilità e alla mortalità (Schwalbe & Wahl, 2020). Ad esempio, in alcuni casi, gli
interventi guidati dall'intelligenza artificiale hanno integrato il processo decisionale clinico per ridurre il carico di lavoro
degli operatori sanitari (Guo & Li, 2018). I nuovi sviluppi nell'IA hanno anche contribuito a identificare i focolai di malattie
prima degli approcci tradizionali (Lake et al., 2019).

Gli studi sull'intelligenza artificiale nei LMIC hanno anche affrontato la salute pubblica da una prospettiva più ampia: più
specificamente nella politica e nella gestione della salute. Questi studi includono la ricerca sull'intelligenza artificiale
volta a migliorare le prestazioni delle strutture sanitarie, migliorare l'allocazione delle risorse dal punto di vista dei sistemi e
ridurre gli infortuni legati al traffico oltre ad altri problemi del sistema sanitario (Schwalbe & Wahl, 2020).

Sebbene l'intelligenza artificiale possa aiutare ad affrontare diverse sfide sanitarie esistenti ed emergenti nei LMIC,
molte questioni meritano un'ulteriore esplorazione. Questi problemi riguardano lo sviluppo di specifici interventi sanitari
guidati dall'IA e la loro reale efficacia ed efficacia. Inoltre, dovrebbero essere implementati standard di regolamentazione
etica al fine di aiutare a proteggere gli interessi e le esigenze delle comunità locali e tentare di aumentare la ricerca e il
coinvolgimento basati sulla comunità (Collins et al., 2019). Infine, il successo dell'implementazione di molti strumenti di
intelligenza artificiale nei LMIC richiederà investimenti per rafforzare i sistemi sanitari sottostanti (Schwalbe & Wahl,
2020).

2.5. L'intelligenza artificiale nell'amministrazione sanitaria

I sistemi sanitari sono caratterizzati da un intenso flusso di lavoro amministrativo con un'ampia gamma di attori e
istituzioni, tra cui pazienti (ad es. gestione della fatturazione), operatori sanitari, strutture e organizzazioni sanitarie (ad
es. flusso dei pazienti), strutture di imaging, laboratori (ad es. catena di fornitura di materiali di consumo), farmacie,
pagatori e autorità di regolamentazione. Un rapporto svolto in un contesto di cure primarie ha identificato diverse
potenziali aree di preoccupazione all'interno di questo pesante contesto amministrativo. Questi
includere il tempo speso per richiedere il rimborso finanziario, inserire dati in vari sistemi informativi non integrati basati
sulla pratica, elaborare informazioni da ospedali e altri fornitori esterni e aiutare i pazienti a navigare in un sistema
sanitario frammentato. Lo studio ha concluso che oltre il 50% del tempo di pratica è stato dedicato alla burocrazia, la
maggior parte della quale era potenzialmente evitabile (Clay & Stern, 2015).

L'intelligenza artificiale può eseguire queste attività di routine in modo più efficiente, accurato e imparziale. Un argomento
a favore dell'utilizzo dell'IA nelle pratiche amministrative è che gli errori in queste attività sono meno gravi degli errori in
ambito clinico. Tuttavia, il pericolo di hacking, mancanza di privacy e sicurezza rimane
(Roski et al., 2019; OCSE, 2020). Le applicazioni AI possono essere fondamentali nell'organizzazione del flusso dei
pazienti. Ad esempio, la mancanza di disponibilità di posti letto è una causa importante di cancellazioni chirurgiche
(Kaddoum et al., 2016); tuttavia, è un errore amministrativo prevenibile nel flusso dei pazienti. Questo problema si
verifica frequentemente ed è anche associato a ritardi nella dimissione nel reparto clinico (Stylianou et al., 2017).

2.5.1. Codifica
La codifica è il processo di estrazione delle informazioni dalle cartelle cliniche e la loro codifica utilizzando classificazioni
come la Classificazione Internazionale delle Malattie (ICD) o i gruppi correlati alla diagnosi (DRG). La codifica è un
processo complesso e laborioso e l'accuratezza della codifica è molto importante per il rimborso, l'amministrazione e la
ricerca. Mentre la codifica assistita da computer esiste da più tempo

13
Machine Translated by Google

STOAA | Panel per il futuro della scienza e della tecnologia

più di un decennio, l'IA può migliorare l'accuratezza e la trasparenza di questa pratica amministrativa (OCSE, 2020).

2.5.2. Programmazione

La pianificazione è un altro esempio in cui l'IA può aggiungere valore al processo amministrativo. Gli algoritmi
basati su dati storici possono prevedere quali pazienti potrebbero non presentarsi agli appuntamenti, consentendo
ai professionisti di intraprendere azioni proattive per gestire la situazione. Al di là dei promemoria generici o anche
mirati, l'IA può rispondere alle esigenze e alle domande di un paziente (OCSE, 2020).

2.5.3. Rilevamento di attività fraudolente


Gli algoritmi possono anche imparare a cercare attività fraudolente in ambito sanitario, ovvero utilizzando un codice
per un servizio medico più costoso di quello prestato (OCSE, 2020).

2.5.4. Gestione del flusso di pazienti


La gestione fluida e il trasferimento dei pazienti attraverso le diverse fasi dell'assistenza con ritardi minimi è ciò che
definisce il flusso dei pazienti (NHS, 2017). In particolare, la qualità dei servizi forniti dai sistemi sanitari e la
soddisfazione dei pazienti dovrebbero essere mantenute per tutto il tempo. È stato dimostrato che uno scarso
flusso di pazienti influisce negativamente sui pazienti, sul personale e sulla qualità complessiva dell'assistenza
(Tlapa et al., 2020). Le soluzioni tecnologiche come l'IA sono sempre più applicate a scopi associati al flusso di
pazienti (Dawoodbhoy et al., 2021). Ad esempio, il volume fluttuante degli arrivi dei pazienti è una variabile cruciale
ma incerta nei reparti di emergenza ospedaliera.

Conoscere in anticipo il volume dei pazienti in arrivo consente una pianificazione operativa regolare dei dipartimenti
di emergenza e migliora il relativo processo decisionale (Menke et al., 2014; Ram et al., 2015). Implementando
una migliore pianificazione e allocazione delle risorse sulla base di risultati predittivi, la probabilità di sovraffollamento
può essere ridotta per migliorare in ultima analisi la qualità dell'assistenza sanitaria (Jiang et al., 2018).

2.5.5. Audit sanitari

L'audit sanitario è il processo di revisione delle cartelle cliniche dei pazienti al fine di identificare le raccomandazioni
per il miglioramento (NHS England, 2021). Questo processo fornisce sia informazioni quantitative sullo stato attuale
delle cose sia raccomandazioni su come migliorare i risultati clinici. Gli audit possono essere eseguiti di routine o
in caso di carenze significative nella fornitura di un servizio, come un aumento dei tassi di infezione (Nagar et al.,
2015) o problemi di flusso di pazienti (Kamat & Parker, 2015).

14
Machine Translated by Google

Intelligenza artificiale in sanità

3. Rischio di IA in ambito sanitario

In un articolo pubblicato più di 50 anni fa, William B. Schwartz affermava che "la scienza informatica eserciterà probabilmente i suoi
maggiori effetti aumentando e, in alcuni casi, sostituendo ampiamente le funzioni intellettuali del medico" (Schwartz, 1970). Nonostante
gli esempi promettenti di soluzioni di intelligenza artificiale nel settore sanitario, la previsione di Schwartz non si è ancora del tutto
realizzata. I risultati iniziali delle applicazioni sanitarie dell'IA non sono solidi come previsto ed è difficile valutarne l'impatto reale (Roski
et al., 2019; Fihn et al., 2019).

Alcuni attori affermano che il potenziale della medicina dell'IA nel suo insieme è stato ampiamente sopravvalutato, praticamente
senza dati che dimostrino un effettivo miglioramento degli esiti dei pazienti (Angus, 2020; Parikh, 2019; Emanuel, 2019). Altri esperti
hanno sollevato preoccupazioni negli ultimi anni riguardo alle potenziali conseguenze negative dell'IA medica, compresi i rischi clinici,
tecnici e socio-etici
(Challen et al., 2019; Gerke & Cohen, 2020; Ellahham et al., 2020; Morley & Floridi, 2020; Manne & Kantheti, 2021).

In questo capitolo, descriveremo i principali rischi che sono stati identificati in letteratura come probabili derivanti dall'introduzione
dell'IA nella futura assistenza sanitaria. Ci concentreremo su sette categorie di rischi e sfide:

1. Danno al paziente a causa di errori dell'IA

2. Uso improprio di strumenti di intelligenza artificiale medica

3. Rischio di parzialità nell'IA medica e perpetuazione delle disuguaglianze

4. Mancanza di trasparenza

5. Problemi di privacy e sicurezza

6. Lacune nella responsabilità dell'IA

7. Ostacoli all'implementazione nella sanità reale

Questi rischi non solo potrebbero causare danni ai pazienti e ai cittadini, ma potrebbero anche ridurre il livello di fiducia negli algoritmi
di intelligenza artificiale da parte dei medici e della società in generale. Pertanto, la valutazione, la classificazione e la gestione del
rischio devono essere parte integrante dei processi di sviluppo, valutazione e implementazione dell'IA.

3.1. Danno al paziente a causa di errori AI

Nonostante i continui progressi nella disponibilità dei dati e nell'apprendimento automatico, le soluzioni cliniche guidate dall'intelligenza artificiale
nel settore sanitario può essere associato a guasti che potrebbero potenzialmente comportare problemi di sicurezza per gli utenti
finali dei servizi sanitari (Challen et al., 2019; Ellahham et al., 2020). Questi errori dell'algoritmo AI possono portare, ad esempio, a (1)
falsi negativi sotto forma di diagnosi mancate di malattie potenzialmente letali, (2) trattamenti non necessari a causa di falsi positivi
(persone sane erroneamente classificate come malate dall'algoritmo AI), (3) interventi inadeguati a causa di diagnosi imprecise o
priorità errata degli interventi nei reparti di emergenza (Figura 3).

15
Machine Translated by Google

STOAA | Panel per il futuro della scienza e della tecnologia

Figura 3 – Riepilogo delle cause e delle conseguenze di errori e fallimenti degli algoritmi
di IA medica, insieme ad alcune raccomandazioni per la potenziale mitigazione

Supponendo che gli sviluppatori di intelligenza artificiale abbiano accesso a set di dati su larga scala con una qualità sufficiente per
addestrare le loro tecnologie di intelligenza artificiale, ci sono ancora almeno tre principali fonti di errore per l'IA nella pratica clinica.
In primo luogo, le previsioni AI possono essere notevolmente influenzate dal rumore nei dati di input durante l'utilizzo dello strumento
AI. Ad esempio, la scansione a ultrasuoni, la modalità di imaging più comunemente utilizzata nella pratica clinica a causa del suo
basso costo e della sua portabilità, è nota per essere soggetta a errori di scansione (Farina et al, 2012). Ciò dipende in particolare
dall'esperienza dell'operatore, dalla collaborazione del paziente e dal contesto clinico (es. ecografia di emergenza) (Pinto et al.,
2013). Anche nei paesi ad alto reddito dove c'è un alto livello di formazione medica, si prevede che tali errori si verifichino in alcune
scansioni, influenzando così le successive previsioni dell'IA.

In secondo luogo, le classificazioni errate dell'IA possono apparire a causa dello spostamento del set di dati (Subbaswamyet al.,
2020), un problema comune nell'apprendimento automatico che si verifica quando la distribuzione statistica dei dati utilizzati nella
pratica clinica viene spostata, anche leggermente, dalla distribuzione originale del set di dati utilizzato per addestrare l'algoritmo AI.
Questo cambiamento potrebbe essere dovuto a differenze nei gruppi di popolazione, ai protocolli di acquisizione tra gli ospedali o
all'utilizzo di macchine di produttori diversi. Uno studio recente
(Campello et al., 2020) ha dimostrato che i modelli di intelligenza artificiale addestrati su scansioni di immagini di risonanza
magnetica cardiaca (MRI) da due scanner (ad es. Siemens e Philips) perdono accuratezza se applicati ai dati MRI acquisiti da
macchine diverse (ad es. General Electric e Canon).

Un altro esempio di spostamento del set di dati può essere visto in uno studio multicentrico negli Stati Uniti che ha creato un
sistema di intelligenza artificiale per la diagnosi della polmonite altamente accurato basato sui dati di due ospedali (Zech et al.,
2018). Quando è stato testato con i dati di un terzo ospedale, è stata notata una significativa diminuzione dell'accuratezza,
suggerendo potenziali distorsioni specifiche dell'ospedale. In un altro esempio, la società DeepMind ha sviluppato un modello di
deep learning addestrato su un ampio set di dati per la diagnosi automatizzata delle malattie della retina dalla tomografia a coerenza
ottica (OCT) (De Fauw, et al., 2018). Hanno scoperto che il sistema di intelligenza artificiale era confuso quando applicato alle
immagini ottenute da una macchina diversa da quella utilizzata per l'acquisizione dei dati nella fase di addestramento dell'IA, con
l'errore di diagnosi che aumentava dal 5,5% a uno sbalorditivo 46%. Questi esempi illustrano le attuali sfide poste nella creazione
di strumenti di intelligenza artificiale che mantengano un elevato livello di accuratezza anche se i dati sono eterogenei tra
popolazioni, ospedali o macchine.

16
Machine Translated by Google

Intelligenza artificiale in sanità

Infine, le previsioni possono essere errate a causa della difficoltà degli algoritmi di intelligenza artificiale di adattarsi a
cambiamenti imprevisti dell'ambiente e del contesto in cui vengono applicati. Per illustrare il problema, i ricercatori della
Harvard Medical School hanno descritto un bell'esempio nel dominio dell'intelligenza artificiale per l'imaging medico (Yu &
Kohane, 2019). Hanno immaginato un sistema di intelligenza artificiale addestrato a rilevare ombre o caratteristiche dense su
immagini a raggi X del torace associate a lesioni nelle principali malattie come il cancro ai polmoni. Quindi, hanno elencato
una serie di semplici scenari in cui l'intelligenza artificiale può portare a previsioni errate, ad esempio se il tecnico dei raggi X
lascia i connettori ECG adesivi sul torace del paziente o se il paziente indossa un anello nuziale e mette la mano sul petto
durante la scansione. In questi scenari, è possibile che il modello AI possa scambiare questi artefatti circolari come una delle
lesioni toraciche note, risultando in un falso positivo.

Esistono almeno tre strade per ridurre al minimo il rischio di errori di intelligenza artificiale e problemi di sicurezza per i pazienti
(Figura 3). Innanzitutto, è necessario definire metodi e procedure standardizzati per un'ampia valutazione e approvazione
normativa delle soluzioni di intelligenza artificiale, in particolare per quanto riguarda la loro generalizzabilità a nuove popolazioni
e la sensibilità al rumore. In secondo luogo, gli algoritmi di intelligenza artificiale dovrebbero essere progettati e implementati
come strumenti di assistenza (al contrario di strumenti completamente autonomi), in modo tale che i medici rimangano parte
del flusso di lavoro di elaborazione dei dati per rilevare e segnalare potenziali errori e cambiamenti contestuali, e quindi per
ridurre al minimo i danni ai pazienti.

Inoltre, le future soluzioni di intelligenza artificiale nel settore sanitario devono essere dinamiche, ovvero dovrebbero essere
integrate con meccanismi per continuare a imparare da nuovi scenari ed errori man mano che vengono rilevati nella pratica.
Tuttavia, quest'ultimo aspetto richiederà ancora un certo grado di controllo e vigilanza umana per identificare i problemi man
mano che si presentano; questo a sua volta può aumentare i costi e ridurre i benefici iniziali dell'IA.
Saranno inoltre necessari sviluppi infrastrutturali e tecnici per consentire aggiornamenti regolari dell'IA (basati sulla formazione
passata e nuova) e sarà necessario attuare politiche che garantiscano che tali meccanismi siano integrati nelle strutture
sanitarie.

3.2. Uso improprio di strumenti di intelligenza artificiale medica

Come con la maggior parte delle tecnologie sanitarie, esiste il rischio di errore umano e uso improprio da parte dell'uomo con
l'IA medica. Anche quando gli algoritmi di intelligenza artificiale sviluppati sono accurati e robusti, dipendono dal modo in cui
vengono utilizzati nella pratica dagli utenti finali, inclusi medici, operatori sanitari e
pazienti. L'uso errato degli strumenti di intelligenza artificiale può comportare valutazioni mediche e processi decisionali errati
e successivamente in potenziale danno per il paziente. Pertanto, non è sufficiente che i medici e il pubblico in generale
abbiano accesso agli strumenti di intelligenza artificiale medica, ma è anche necessario che capiscano come e quando
utilizzare queste tecnologie.

17
Machine Translated by Google

STOAA | Panel per il futuro della scienza e della tecnologia

Figura 4 – Principali fattori che possono portare a un uso scorretto degli algoritmi di IA medica da
parte di medici e cittadini e potenziali misure di mitigazione per migliorare l'usabilità degli algoritmi futuri

Esistono molteplici fattori che rendono le tecnologie di intelligenza artificiale medica esistenti soggette a errori
umani o a un uso errato (Figura 4). In primo luogo, sono stati spesso progettati e sviluppati da scienziati informatici/
dati con un coinvolgimento limitato da parte degli utenti finali e degli esperti clinici. Di conseguenza, è l'utente
(vale a dire, il medico, l'infermiere, il gestore dei dati o il paziente) che deve imparare a utilizzare e ad adattarsi
alla nuova tecnologia AI, che può portare a interazioni ed esperienze innaturali e complesse.
A sua volta, l'utente clinico può incontrare difficoltà nella comprensione e nell'applicazione dell'algoritmo AI nella
pratica quotidiana, il che limiterà la percezione di un processo decisionale informato, aumentando al contempo le
possibilità di errore umano.

Questo problema è esacerbato dal fatto che i programmi di formazione esistenti in medicina non sono ancora
adattati all'IA medica e generalmente non forniscono ai nuovi medici conoscenze e competenze nell'area dell'IA.
Un sondaggio condotto in Australia e Nuova Zelanda nel 2021 con 632 tirocinanti medici (nei settori
dell'oftalmologia, della dermatologia e dell'oncologia) ha mostrato che il 71% degli intervistati riteneva che l'IA
avrebbe migliorato il loro campo della medicina, in particolare per migliorare lo screening delle malattie e
semplificare le attività monotone (Scheetz et al., 2021).

Tuttavia, la maggior parte degli intervistati ha indicato di non aver mai utilizzato applicazioni di intelligenza
artificiale nel proprio lavoro di medico (>80%) e solo il 5% si ritiene dotato di un'ottima conoscenza del settore.
Un altro studio condotto nel Regno Unito ha intervistato 484 studenti di 19 scuole di medicina e ha rilevato che
nessuno degli studenti ha ricevuto alcun insegnamento di intelligenza artificiale come parte del proprio curriculum
obbligatorio (Sit et al., 2020). Conclusioni simili sono state raggiunte sulla conoscenza e l'utilizzo di interventi
basati sulla tecnologia tra gli operatori sanitari nell'Unione europea in altri settori sanitari
(Quaglioet al., 2019).

Queste riflessioni sull'educazione e l'alfabetizzazione dell'IA si applicano anche ai cittadini e ai pazienti, che
diventeranno utenti attivi delle future soluzioni di IA medica. Uno studio del 2021 condotto in cinque paesi
(Australia, Stati Uniti, Canada, Germania e Regno Unito) con oltre 6.000 cittadini ha dimostrato che il pubblico ha
generalmente una scarsa consapevolezza e comprensione dell'IA e del suo utilizzo nella vita di tutti i giorni
(Gillespie et al., 2021). Mentre i giovani, gli uomini e le persone con un'istruzione universitaria tendono ad essere più consapevoli e

18
Machine Translated by Google

Intelligenza artificiale in sanità

comprendere meglio l'IA, anche questi gruppi riportano una comprensione dell'IA da bassa a moderata (Gillespie et al.,
2021).

Un'altra causa del potenziale uso improprio dell'IA medica, che potrebbe causare danni a cittadini e pazienti, è la
proliferazione di applicazioni di IA medica facilmente accessibili. Ad esempio, cellulare commerciale
le app sono state sviluppate da diverse aziende per il rilevamento del cancro della pelle con lo scopo di consentire alle
persone di scattare e caricare un'immagine della propria pelle attraverso l'app, che viene quindi analizzata e valutata
direttamente dall'algoritmo AI dell'app. Alcuni esempi di tali app includono Skinvision, MelApp, skinScan e SpotMole.

Sebbene questi strumenti siano facilmente accessibili al grande pubblico, spesso ci sono informazioni limitate su come
gli algoritmi di intelligenza artificiale in questione sono stati sviluppati e convalidati, mentre la loro affidabilità ed efficacia
clinica non è sempre dimostrata. Ad esempio, uno studio recente che ha valutato sei app mobili per il rilevamento del
cancro della pelle ha dimostrato la loro mancanza di efficienza e l'alto rischio di parzialità (Freeman et al., 2020). Gli
autori hanno concluso: ' Le attuali app per smartphone basate su algoritmi non possono essere
rilevare tutti i casi di melanoma o utilizzate per altri tumori della pelle. L'attuale processo normativo per
'
l'assegnazione della marcatura CE per le app basate su algoritmi non fornisce una protezione adeguata al pubblico
(Freeman et al., 2020).

Una rapida ricerca mostra che molti strumenti online/mobili basati sull'intelligenza artificiale sono emersi anche in
un'ampia gamma di domini medici e sono offerti commercialmente per la diagnostica medica e il monitoraggio della
salute, come Diagnostics.ai, DDXRX Doctor Ai, Symptomate e Achu Health. Sebbene tali servizi possano costituire una
soluzione promettente per la diagnosi remota e il follow-up della malattia, la loro ampia proliferazione online può
diventare un problema di salute pubblica, allo stesso modo in cui le farmacie online facilmente accessibili hanno
contribuito all'abuso di farmaci da parte dei cittadini (Bandivadekar, 2020).

Poiché lo sviluppo e la commercializzazione di applicazioni sanitarie web/mobile alimentate dall'IA continueranno ad


attrarre molti nuovi attori e aziende con diversi standard di etica, eccellenza e qualità. Le aziende che offrono questi
strumenti medici di intelligenza artificiale basati su Web o dispositivi mobili riconoscono sui loro siti Web che i loro
prodotti di intelligenza artificiale non sono dispositivi medici certificati e i termini di servizio spesso contengono esclusioni
di responsabilità. Si possono facilmente trovare dichiarazioni di non responsabilità come
'
questo sito è progettato per offrire informazioni generali sulla salute a scopo educativo solo le
' '
professionale O
informazioni sulla salute fornite su questo sito e le risposte interattive non sono intese come consulenza
e non intendono sostituire la consultazione personale con a medico qualificato, farmacista altro professionista sanitario UN
O '. Tuttavia, la maggior parte degli utenti
potrebbe non necessariamente imbattersi, leggere e comprendere queste dichiarazioni di non responsabilità e quindi potrebbe fare
affidamento su informazioni e diagnosi potenzialmente errate fornite dagli strumenti di intelligenza artificiale, che potrebbero avere un
impatto negativo sul loro processo decisionale in merito alla loro salute.

Esistono diverse strade per ridurre l'errore umano o l'uso scorretto delle future soluzioni di intelligenza artificiale medica
(Figura 4). Prima di tutto, gli utenti finali come operatori sanitari, specialisti, tecnici o pazienti dovrebbero essere
strettamente coinvolti nella progettazione e nello sviluppo di soluzioni di intelligenza artificiale per garantire che i loro
punti di vista, preferenze e contesti siano ben integrati negli strumenti finali che saranno implementati e utilizzati. Inoltre,
i programmi di istruzione e alfabetizzazione sull'IA e sull'IA medica dovrebbero essere sviluppati e generalizzati in tutti i
circoli educativi e nella società per aumentare le conoscenze e le competenze dei futuri utenti finali dell'IA e quindi
ridurre l'errore umano. Infine, è importante che le agenzie pubbliche contribuiscano a regolamentare il settore dell'IA
medica web/mobile, in modo tale che i cittadini siano ben informati e protetti dall'uso improprio e dall'abuso di queste
tecnologie di intelligenza artificiale emergenti e facilmente accessibili.

19
Machine Translated by Google

STOAA | Panel per il futuro della scienza e della tecnologia

3.3. Rischio di parzialità nell'IA medica e perpetuazione delle disuguaglianze

Figura 5 – Distorsioni più comuni e relative cause nell'IA medica e potenziali misure di mitigazione
per sviluppare algoritmi di intelligenza artificiale con maggiore equità ed equità

Nonostante i continui progressi nella ricerca medica e nell'assistenza sanitaria, permangono importanti
disuguaglianze e disuguaglianze nell'assistenza medica nella maggior parte dei paesi del mondo. I principali
fattori che contribuiscono a queste disuguaglianze e disuguaglianze includono sesso/genere, età, etnia,
reddito, istruzione e geografia. Sebbene alcune di queste disuguaglianze siano sistemiche, ad esempio
dovute a differenze socioeconomiche e discriminazioni, anche i pregiudizi umani svolgono un ruolo importante.
Ad esempio, negli Stati Uniti, la ricerca esistente ha dimostrato che i medici non prendono sul serio le
lamentele di dolore dei pazienti neri né rispondono ad esse così rapidamente come fanno per le loro
controparti bianche (Hoffman et al., 2016). Persistente nella maggior parte dei paesi del mondo, a vari livelli,
è un altro esempio di pregiudizio comune incorporato nei sistemi sanitari: la discriminazione basata sul
genere. Ancora una volta, nel campo della gestione del dolore, gli studi hanno evidenziato l'aumento della
psicologizzazione o invisibilizzazione delle pazienti di sesso femminile quando riferiscono il dolore (Samulowitz
et al., 2018).

Quindi, negli ultimi anni, ci sono state preoccupazioni che, se non correttamente attuate, valutate
e regolamentate, le future soluzioni di intelligenza artificiale potrebbero incorporare e persino amplificare le disparità
sistemiche e i pregiudizi umani che contribuiscono alle disuguaglianze sanitarie. Alcuni esempi di pregiudizi algoritmici
hanno già fatto notizia negli ultimi anni, alcuni dei quali sono descritti in dettaglio di seguito.

Scienza
Uno studio pubblicato nel 2019 ha mostrato che un algoritmo utilizzato negli Stati Uniti per aiutare nel
processo di rinvio di pazienti che necessitano di cure extra o specialistiche ha dimostrato di discriminare i
pazienti neri (Obermeyer et al., 2019). Gli autori dello studio hanno spiegato che con l'algoritmo,
'a dato il punteggio di rischio, i pazienti neri sono notevolmente più malati dei pazienti bianchi, evidenziato da
come segni di malattie incontrollate. Rimediare a questa disparità aumenterebbe la percentuale
neri che di pazienti
ricevono ulteriore aiuto dal 17,7 al 46,5%'. A Uno studio canadese del 2020 ha valutato il
grado di equità degli algoritmi di deep learning all'avanguardia utilizzati per rilevare anomalie come fratture,
lesioni polmonari, noduli, polmonite, ecc. nelle immagini radiografiche del torace (Seyyed-Kalantari et al., 2020).
Lo studio ha mostrato che il più alto tasso di sottodiagnosi era nelle giovani donne (età: 0-20), nei pazienti
neri e nei pazienti con assicurazione sanitaria pubblica per persone e famiglie a basso reddito.
Inoltre, i pazienti con identità intersezionali (per esempio, una paziente ispanica con basso

20
Machine Translated by Google

Intelligenza artificiale in sanità

assicurazione sanitaria sul reddito) ha subito i più alti tassi di sottodiagnosi. Gli autori hanno concluso che
'
i modelli addestrati su set di dati di grandi dimensioni non forniscono naturalmente pari opportunità, ma guidano invece
A potenziali disparità di cura se implementati senza modifiche (Seyyed-Kalantari et al., 2020).

È opinione diffusa che la causa più comune di ingiustizia nell'IA medica sia la distorsione nei dati utilizzati per addestrare
i modelli di apprendimento automatico. Come ha affermato Marzyeh Ghassemi dell'Università di Toronto in una recente
presentazione sull'IA nel settore sanitario (Ghassemi, 2021): " Il pregiudizio fa già partedel fatto
panorama clinico. Quindi,non è se l'apprendimento automatico è disponibile noi. che quando ci alleniamo siamo
come sui dati che gli umani fanno, che gli umani etichettano, che gli umani annotano, potremmo coglierealcuni Di
pregiudizi che gli umani hanno iniettato in quei dati '.

Ad esempio, nel 2002 il National Lung Screening Trial, che ha raccolto set di dati da 53.000 fumatori per indagare sui
metodi per la diagnosi precoce del cancro del polmone, ha incluso solo il 4% dei partecipanti neri nei dati (Ferryman &
Pitcan, 2018). Gli algoritmi di apprendimento automatico per il rilevamento del cancro della pelle sono stati troppo spesso
addestrati su set di dati altamente distorti, come l'International Skin Imaging Collaboration, uno dei database ad accesso
aperto più utilizzati sulla pelle
lesioni – che contengono immagini di pazienti per lo più di carnagione chiara negli Stati Uniti, in Europa e in Australia
(Adamson & Smith, 2018). I modelli diagnostici addestrati solo su gruppi di pelle chiara potrebbero rivelarsi dannosi per
il processo diagnostico delle lesioni da melanoma presenti su individui di pelle scura. Allo stesso modo, il modo in cui
COVID-19 sembra influenzare i pazienti in modo diverso in base al loro gruppo di sesso significa che un algoritmo di
intelligenza artificiale addestrato sui dati clinici esistenti rischia di soffrire di una minore equità nel prevedere la gravità e
la mortalità negli uomini e nelle donne (Jin et al., 2020).

Un altro tipo di distorsione che appare nei set di dati è di natura geografica. Nel 2020, i ricercatori dei campi della
radiologia e della ricerca biomedica presso la Stanford University hanno condotto una revisione degli articoli pubblicati in
un periodo di cinque anni che erano stati utilizzati nella formazione di algoritmi di deep learning relativi alla cura del
paziente (Kaushal et al., 2020). Hanno scoperto che il 71% degli studi negli Stati Uniti in cui è stata identificata la
posizione geografica utilizzava dati solo dalla California, dal Massachusetts e da New York. Inoltre, hanno scoperto che
gli studi non includevano dati da 34 dei 50 stati degli Stati Uniti
La distorsione geografica può essere un problema importante anche in Europa, poiché la disponibilità dei dati e l'accesso alle
apparecchiature digitali sono distribuiti in modo non uniforme, in particolare nelle regioni dell'Europa orientale (EGA Consortium,
2021).

Un'altra potenziale fonte di mancanza di equità nell'IA medica è la distorsione nell'etichettatura dei dati durante la
valutazione clinica. Ad esempio, la ricerca esistente ha dimostrato che a causa degli stereotipi di genere, le donne sono
sovradiagnosticate per alcune malattie come la depressione e sottodiagnosticate per altre malattie come il cancro
(Dusenberry, 2018). Inoltre, uno studio danese su larga scala, che ha analizzato i dati sui ricoveri ospedalieri per circa 7
milioni di cittadini e 19 gruppi di malattie, ha rilevato che per la stragrande maggioranza delle malattie, le donne vengono
diagnosticate più tardi rispetto agli uomini (Westergaard et al., 2019).
È importante sottolineare che, per molte di queste condizioni mediche come lesioni, avvelenamenti, malformazioni
congenite e malattie infettive, queste discrepanze non possono essere spiegate da differenze anatomiche o genetiche.
Se le etichette dei dati nei registri sanitari sono influenzate da tali disparità sanitarie, come in ambienti in cui determinati
gruppi sono stati sistematicamente diagnosticati erroneamente
a causa di stigma o stereotipi, i modelli di intelligenza artificiale probabilmente impareranno a perpetuare questa disparità
(Rajkomar et al., 2018).

Negli ultimi anni, la consapevolezza del pregiudizio algoritmico è aumentata e i ricercatori, in particolare in Nord America,
hanno iniziato a studiare misure di mitigazione per affrontare il rischio di ingiustizia nell'IA medica. In primo luogo, è
evidente che gli sviluppatori di intelligenza artificiale, in collaborazione con esperti clinici e operatori sanitari, devono
prestare un'attenzione costante e continua alla selezione e all'etichettatura dei dati e delle variabili da utilizzare durante
l'addestramento del modello. Questi dovrebbero essere rappresentativi ed equilibrati rispetto ad attributi chiave come
sesso/genere, età, socioeconomia, etnia e posizione geografica. Inoltre, si raccomanda di coinvolgere nei team di
sviluppo non solo data scientist e ricercatori biomedici, ma anche scienziati sociali, esperti di etica biomedica, operatori
della salute pubblica

21
Machine Translated by Google

STOAA | Panel per il futuro della scienza e della tecnologia

esperti, pazienti e cittadini. Quest'ultimo gruppo deve essere il più diversificato possibile per garantire che un'adeguata
diversità di background, esperienze ed esigenze sia presa in considerazione durante il ciclo di vita della produzione di IA e
che gli strumenti creati siano veramente rappresentativi e fondati sulla ricerca basata sulla comunità.

3.4. Mancanza di trasparenza


Nonostante i continui progressi nell'IA medica, gli algoritmi esistenti continuano a essere visti da individui ed esperti allo
stesso modo come tecnologie complesse e oscure, difficili da comprendere, fidarsi e adottare pienamente.

Un recente algoritmo di intelligenza artificiale sviluppato da Google per lo screening del cancro al seno ha ricevuto una
notevole attenzione per le sue prestazioni promettenti (McKinney,2020): è stato dimostrato che migliora la velocità e la
robustezza dello screening del cancro al seno, per generalizzare bene alle popolazioni in più paesi
oltre a quelli utilizzati per la formazione, e ha persino superato i radiologi in situazioni specifiche.
Tuttavia, questo lavoro ha anche ricevuto alcune critiche da parte dei media e della comunità dell'IA poiché è stato
presentato quasi senza dettagli su come è stato costruito l'algoritmo e sulle principali descrizioni tecniche.
Alcuni critici hanno messo in dubbio l'utilità e la sicurezza di un tale strumento di intelligenza artificiale (Wiggers, 2020;
iNews, 2020), mentre un gruppo di scienziati ha utilizzato questo algoritmo come esempio centrale quando hanno pubblicato
un invito su Nature per una maggiore trasparenza nell'IA medica (Haibe-Kainset al., 2020).

La mancanza di trasparenza è ampiamente considerata una questione importante nello sviluppo e nell'uso degli attuali
strumenti di intelligenza artificiale nel settore sanitario (Figura 6). Si prevede che si tradurrà in una grande mancanza di
affidabilità nell'IA, soprattutto in aree sensibili come la medicina e l'assistenza sanitaria, incentrate sul benessere e sulla
salute dei cittadini. Allo stesso tempo, la mancanza di affidabilità avrà evidentemente un impatto sul livello di adozione degli
algoritmi di intelligenza artificiale emergenti da parte di pazienti, medici e sistemi sanitari.

La trasparenza dell'IA è strettamente legata ai concetti di tracciabilità e spiegabilità, che corrispondono a due livelli distinti
ai quali la trasparenza è richiesta, vale a dire (1) trasparenza dei processi di sviluppo e utilizzo dell'IA (tracciabilità) e (2)
trasparenza delle decisioni dell'IA (spiegabilità).

Figura 6 – Principali rischi derivanti dall'attuale mancanza di trasparenza associata agli


algoritmi di IA seguiti da possibili misure di mitigazione

22
Machine Translated by Google

Intelligenza artificiale in sanità

La tracciabilità è considerata un requisito fondamentale per un'IA affidabile e si riferisce alla documentazione trasparente
dell'intero processo di sviluppo dell'IA, compreso il monitoraggio del funzionamento del modello di intelligenza artificiale nella
pratica del mondo reale dopo l'implementazione (Mora-Cantallops et al., 2021). Più specificamente, la tracciabilità richiede il
mantenimento di un resoconto completo di (i) dettagli del modello (uso previsto, tipo di algoritmo o rete neurale, iperparametri,
nonché fasi di pre e post-elaborazione), (ii) dati di addestramento e convalida (processo di raccolta, composizione dei dati,
protocolli di acquisizione ed etichettatura dei dati) e (iii) monitoraggio dello strumento di intelligenza artificiale (metriche delle
prestazioni, guasti, valutazioni periodiche) (Regolamento UE, 2017;
FDA, 2019).

In pratica, gli strumenti di intelligenza artificiale esistenti nel settore sanitario raramente vengono forniti con piena tracciabilità.
Spesso, infatti, le aziende preferiscono non divulgare troppe informazioni sui propri algoritmi, che vengono così forniti come
strumenti opachi, difficili da comprendere ed esaminare da parti indipendenti. Questo, a sua volta, riduce il livello di fiducia e
adozione nella pratica del mondo reale.

Mentre la tracciabilità riguarda la trasparenza del ciclo di vita dell'algoritmo AI, la spiegabilità AI è importante per fornire
trasparenza per ogni previsione e decisione AI. L'articolo 22 del regolamento generale sulla protezione dei dati (GDPR)
dell'Unione europea descrive in dettaglio il "diritto alla spiegazione" che richiede che venga fornita una spiegazione in merito al
processo decisionale automatizzato (Selbst & Powles, 2017).

Tuttavia, le soluzioni AI, e in particolare le reti neurali profonde, mancano di trasparenza e sono spesso descritte come "black
box AI", riferendosi al fatto che questi modelli apprendono funzioni complesse che gli esseri umani fanno fatica a comprendere
(Yang et al., 2021) e le cui funzioni e processi decisionali non sono visibili o comprensibili. La mancanza di trasparenza rende
difficile per i medici e le altre parti interessate incorporare soluzioni di intelligenza artificiale nella loro pratica del mondo reale
perché per lavorare con specifiche soluzioni di intelligenza artificiale, i medici devono essere in grado di comprendere i principi
fondamentali alla base di ogni decisione e/o previsione, anche quando l'algoritmo stesso ha il potenziale per migliorare la
produttività del medico (Lipton, 2017). Inoltre, la mancanza di spiegabilità significa che è difficile identificare la fonte degli errori
dell'IA e definire le responsabilità quando va male.

Esistono numerose strade disponibili per migliorare la trasparenza delle tecnologie di intelligenza artificiale nel settore sanitario.
Prima di tutto, è necessario un "passaporto AI" che potrebbe essere un requisito per ogni algoritmo AI per documentare tutte
le informazioni chiave del modello. È inoltre necessario sviluppare strumenti di tracciabilità per monitorare l'utilizzo degli
algoritmi di intelligenza artificiale una volta implementati, ad esempio per registrare potenziali errori e degrado delle prestazioni,
nonché per eseguire audit periodici. Per migliorare la spiegabilità degli algoritmi di intelligenza artificiale, è importante che gli
sviluppatori di intelligenza artificiale coinvolgano gli utenti finali clinici dall'inizio del processo di sviluppo al fine di selezionare il
miglior approccio di spiegabilità per ciascuna applicazione e garantire che le spiegazioni scelte siano utili e ben accettate nella
pratica clinica. Infine, gli enti normativi possono svolgere un ruolo importante considerando la tracciabilità e la spiegabilità degli
strumenti di IA come prerequisiti per la certificazione.

3.5. Problemi di privacy e sicurezza


Lo sviluppo sempre più diffuso di soluzioni e tecnologie di intelligenza artificiale nel settore sanitario, recentemente evidenziato
dalla pandemia di COVID-19, ha mostrato potenziali rischi per la mancanza di privacy, riservatezza e protezione dei dati per
pazienti e cittadini. Questo potrebbe portare a gravi conseguenze
(Figura 7), come l'esposizione e l'uso di dati sensibili che vanno contro i diritti dei cittadini
o il riutilizzo dei dati dei pazienti per guadagni non medici.

23
Machine Translated by Google

STOAA | Panel per il futuro della scienza e della tecnologia

Figura 7 – Principali rischi per la privacy e la sicurezza associati a Big Data e IA e alcune
misure di mitigazione

Questi temi sono in primo luogo legati al consenso informato, cioè alla fornitura di informazioni adeguate ai pazienti
per una decisione informata come la condivisione dei dati sanitari personali. Il consenso informato è una parte cruciale
e integrante dell'esperienza sanitaria del paziente, che è stata formalizzata nella Dichiarazione di Helsinki e da allora
è cresciuta man mano che l'introduzione della tecnologia digitale ha permeato la nostra vita quotidiana (Pickering,
2021). Il consenso informato è legato a varie questioni etiche, tra cui la protezione dai danni, il rispetto dell'autonomia,
la protezione della privacy e i diritti di proprietà relativi a dati e/o tessuti (Ploug & Holm, 2016).

Tuttavia, l'introduzione di algoritmi di intelligenza artificiale opachi e complicati moduli di consenso informato limita il
livello di autonomia e il potere del processo decisionale condiviso medico-paziente (Vyas et al., 2020).
È diventato sempre più difficile per i pazienti comprendere il processo decisionale e i diversi modi in cui i loro dati
possono essere riutilizzati e sapere esattamente come possono scegliere di rinunciare alla condivisione dei propri
dati. Le questioni relative al consenso informato sono particolarmente importanti anche nella ricerca sui big data, in
particolare nella ricerca sui dati sanitari basata su piattaforme digitali, in cui un paziente potrebbe non essere
pienamente consapevole o comprendere appieno la misura in cui i suoi dati vengono condivisi e riutilizzati (McKeown
et al., 2021).

Un esempio importante di ciò si è verificato nel 2016, quando le registrazioni di 1,6 milioni di pazienti nel Regno Unito
sono state trasferite – senza il consenso informato dei pazienti – dal Royal Free NHS Foundation Trust alla società di
intelligenza artificiale di proprietà di Google DeepMind, che all'epoca stava lavorando allo sviluppo di un'app per
implementare nuovi modi di rilevare le malattie renali (BBC, 2017). Nel luglio 2017, l'ICO (Information Commissioner's
Office) del Regno Unito ha stabilito che il Royal Free NHS Trust aveva violato le leggi sulla protezione dei dati; l'ufficio
del Commissario per l'informazione è stato notoriamente citato per aver affermato: "il prezzo dell'innovazione non
deve necessariamente essere l'erosione dei diritti fondamentali alla privacy" (Gerke et al., 2020).

L'uso dell'intelligenza artificiale nell'assistenza sanitaria comporta anche un rischio di violazioni della sicurezza dei
dati, in cui le informazioni personali possono essere rese ampiamente disponibili, violando i diritti dei cittadini alla
privacy e mettendoli a rischio di furto di identità e altri tipi di attacchi informatici. Nel luglio 2020, la società di intelligenza
artificiale con sede a New York Cense AI ha subito una violazione dei dati che ha esposto dati altamente sensibili di
oltre 2,5 milioni di pazienti che avevano subito incidenti automobilistici, comprese informazioni dettagliate come nomi, indirizzi,

24
Machine Translated by Google

Intelligenza artificiale in sanità

note diagnostiche, date e tipi di incidente, numeri di polizza assicurativa e altro (HIPPA Journal, 2020). Anche se alla fine sono
stati messi al sicuro, questi dati sono stati brevemente accessibili a chiunque nel mondo disponesse di una connessione Internet,
sottolineando il reale pericolo di violazioni della privacy personale a cui sono esposti i pazienti.

Un'altra preoccupazione persistente è quella del riutilizzo dei dati, che in alcuni contesti viene anche definito "funzione
creep" (Koops, 2021). L'Organizzazione Mondiale della Sanità ha messo in guardia contro il pericolo di indebolimento delle
funzioni durante la pandemia di COVID-19, evidenziando un caso a Singapore in cui i dati delle applicazioni di tracciamento del
COVID-19 del governo sono stati resi disponibili anche per le indagini penali (OMS, 2021). Questo è un chiaro esempio di
riutilizzo di dati relativi alla salute per fini non sanitari, ma il riutilizzo può avvenire anche all'interno della stessa sfera sanitaria.
Un rapporto del 2019 ha esplorato in dettaglio i diversi modi in cui i dati dei pazienti vengono riproposti nell'industria farmaceutica
europea: i dati delle cartelle cliniche elettroniche, i dati dei registri e i dati dei sistemi sanitari vengono utilizzati per lo sviluppo di
farmaci, la progettazione di sperimentazioni cliniche, analisi di marketing e di efficacia dei costi e altro ancora (Hocking et al.,
2019).

Oltre alle questioni relative alla privacy e alla sicurezza dei dati, gli strumenti di intelligenza artificiale sono particolarmente
vulnerabili agli attacchi informatici, i cui risultati potrebbero essere da gravosi a fatali, a seconda del contesto. Nel settembre
2020, un paziente è morto dopo essere stato trasferito in un altro ospedale quando
l'ospedale universitario di Düsseldorf ha subito un attacco informatico che ha interferito con i dati dell'ospedale e reso inutilizzabile
il sistema informatico del centro (Kiener, 2020). Sebbene in seguito sia stato sostenuto che non si potesse dimostrare che la
morte fosse stata causata direttamente dall'attacco informatico, poiché il paziente soffriva già di una condizione pericolosa per la
vita, questo caso ha portato in primo piano i reali danni fisici che gli attacchi informatici possono causare in ambito sanitario.

In un altro esempio di come le violazioni tecnologiche possono influire sulla salute fisica dei pazienti, nell'aprile 2021 la società
svedese di software oncologico Elekta ha subito un attacco ransomware sanitario che ha colpito 170 sistemi sanitari negli Stati
Uniti, ritardando la cura del cancro ai pazienti in tutto il paese e esponendo i dati sensibili dei pazienti (Mulcahy, 2021).

Inoltre, la ricerca ha dimostrato che anche i dispositivi medici personali controllati dall'intelligenza artificiale sono vulnerabili agli
attacchi. Ad esempio, i ricercatori hanno scoperto che le pompe per insulina alimentate dall'intelligenza artificiale per i pazienti
diabetici potrebbero essere violate e controllate a distanza da diverse distanze e potrebbero persino essere manipolate per
inondare il corpo del paziente con insulina in eccesso (Wired, 2019). Sebbene questo hack non sia mai stato eseguito nel mondo
reale, lo sviluppo dell'attacco AI da parte dei ricercatori ha messo in luce gravi vulnerabilità nella funzionalità del sistema AI.

Questi eventi hanno raccolto abbastanza attenzione da portare alla luce la questione di come la sicurezza algoritmica - o la sua
mancanza - possa influenzare la sopravvivenza umana in un contesto ad alto rischio come quello sanitario. Concentrandosi sugli
strumenti di intelligenza artificiale come parte della più ampia sfera tecnologica, è chiaro che i rischi di attacchi e hacking devono
essere continuamente monitorati.

Per affrontare queste importanti questioni, è necessario aumentare la consapevolezza e l'alfabetizzazione sui rischi per la privacy
e la sicurezza, nonché sul consenso informato e la sicurezza informatica. Inoltre, i regolamenti e i quadri giuridici devono essere
estesi per affrontare non solo la privacy ma anche la responsabilità e per proteggere i cittadini dalle violazioni dei dati e dal
riutilizzo dei dati. Dovrebbero essere promossi approcci decentralizzati e federati all'IA per sfruttare il potere dei big data dai
centri clinici senza la necessità di trasferimenti di dati non sicuri. La ricerca deve essere continuata e accelerata per migliorare la
sicurezza nei sistemi basati su cloud e per proteggere gli algoritmi di intelligenza artificiale dagli attacchi informatici.

3.6. Lacune nella responsabilità dell'IA

Il termine "responsabilità algoritmica" ha acquisito crescente importanza tra i ricercatori e le organizzazioni che si dedicano ad
affrontare l'impatto legale dell'introduzione e dell'uso degli algoritmi di intelligenza artificiale

25
Machine Translated by Google

STOAA | Panel per il futuro della scienza e della tecnologia

in diversi ambiti della vita umana. Sebbene il termine "responsabilità algoritmica" possa sembrare riferirsi al compito di cercare di
ritenere responsabile l'algoritmo stesso, in realtà è esattamente l'opposto: sottolinea il fatto che gli algoritmi vengono creati attraverso
una combinazione di apprendimento automatico e progettazione umana e che gli errori o le irregolarità negli algoritmi provengono
dagli esseri umani che sviluppano, introducono o utilizzano le macchine (Kaplan et al., 2018), soprattutto perché gli stessi sistemi di
intelligenza artificiale
non può essere ritenuto moralmente o legalmente responsabile (Raji, 2020).

La responsabilità è particolarmente importante per l'IA medica in quanto contribuirà alla sua accettabilità, affidabilità e futura
adozione nella società e nell'assistenza sanitaria. Ad esempio, è improbabile che i medici che ritengono di essere sistematicamente
ritenuti responsabili di tutti gli errori medici correlati all'IA, anche quando gli algoritmi sono progettati da altri individui o aziende,
adottino queste soluzioni emergenti di intelligenza artificiale
nella loro pratica quotidiana. Allo stesso modo, i cittadini e i pazienti perderanno la fiducia se a loro sembra che nessuno degli
sviluppatori o degli utenti degli strumenti di intelligenza artificiale possa essere ritenuto responsabile del danno che potrebbe essere
causato. Sono necessari nuovi meccanismi e quadri per garantire un'adeguata responsabilità nell'IA medica e per gestire reclami,
risarcimenti e sanzioni ove necessario, nonché per garantire la non ripetizione degli atti (WHO, 2021).

Figura 8 – Limiti attuali nella responsabilità e raccomandazioni per colmare queste lacune

A causa della novità dell'IA medica e della mancanza di precedenti legali, vi è attualmente una grande mancanza di chiarezza per
quanto riguarda la definizione delle responsabilità per gli errori medici correlati all'IA che potrebbero causare danni al paziente
(Figura 8). Il campo in rapida evoluzione e in crescita dell'IA medica pone nuove sfide per le autorità di regolamentazione, i
responsabili politici e i legislatori. Spinge le normative, le politiche e le leggi attuali ad adattare i loro modi tradizionali di considerare
la responsabilità e la responsabilità alla nuova realtà dell'assistenza sanitaria assistita dall'IA.

Le sfide nell'applicazione della legge attuale e dei principi di responsabilità alle applicazioni emergenti dell'IA in medicina includono
(1) il problema multi-attore nell'IA medica, che rende difficile identificare le responsabilità tra i molteplici attori coinvolti nello sviluppo,
nell'implementazione e nell'uso dell'IA medica e degli algoritmi (ad es. sviluppatori di IA, gestori di dati, medici, pazienti, organizzatori
sanitari, ecc.); (2) la difficoltà nell'identificare la causa precisa di qualsiasi errore medico correlato all'IA, che può essere dovuto
all'algoritmo AI, ai dati utilizzati per addestrarlo o al suo uso e comprensione errati in clinica

26
Machine Translated by Google

Intelligenza artificiale in sanità

pratica; e (3) la molteplicità dei quadri di governance e la mancanza di standard etici e legali unificati nelle industrie dell'IA.

Mentre storicamente la relazione tra il paziente e il medico è stata al centro delle questioni relative alla negligenza medica e
alla negligenza, l'introduzione di strumenti di intelligenza artificiale nell'assistenza sanitaria aggiunge un nuovo livello con più
attori nella dinamica paziente-medico (Smith, 2020). Questi attori possono includere non solo il paziente, il medico, il centro
sanitario e il sistema sanitario, ma anche gli sviluppatori, i ricercatori e i produttori di intelligenza artificiale, che ora stanno tutti
entrando in un modo o nell'altro nel processo decisionale medico. La presenza di tutti questi nuovi attori e la mancanza di
chiarezza – non solo su chi è responsabile di quale parte del processo decisionale, ma anche su come funzionano gli stessi
strumenti di intelligenza artificiale – contribuisce alla complessità della situazione.

Mentre i professionisti medici hanno solitamente la responsabilità normativa di essere in grado di rendere conto delle proprie
azioni, un requisito che costituisce parte integrante del loro impegno professionale, gli sviluppatori di intelligenza artificiale e i
tecnologi lavorano generalmente secondo codici etici (Whitby, 2015). Pertanto, per i professionisti medici le ripercussioni per
non essere in grado di rendere conto delle proprie azioni e dei processi decisionali potrebbero comportare la perdita della
licenza per esercitare la professione medica; mentre nella pratica attuale, la mancanza di responsabilità per un tecnologo
potrebbe significare qualcosa di molto meno devastante.
Anche se si scopre che un produttore di IA è responsabile di un errore, è spesso difficile attribuire la colpa a una persona
specifica, dal momento che tanti sviluppatori e ricercatori diversi lavorano su una data IA
sistema. Inoltre, i codici etici e gli standard di responsabilità utilizzati da molti soggetti privati sono stati spesso criticati per
essere vaghi e difficili da tradurre in pratiche applicabili (Raji, 2020).

È importante notare che le questioni di responsabilità e responsabilità dell'IA nel campo della medicina e dell'assistenza
sanitaria sono strettamente legate alle questioni di spiegabilità e trasparenza. L'opaco
un algoritmo di intelligenza artificiale, più difficile è trovare chi è responsabile di un errore che coinvolge un paziente o di una
decisione medica, e quindi l'onere della responsabilità ricadrà probabilmente più pesantemente sul medico che ha utilizzato
uno strumento di intelligenza artificiale medica non trasparente e non è in grado di spiegare la propria decisione medica o l'errore
verificatosi (Maliha et al., 2021). Ciò è particolarmente vero per gli strumenti di IA assistiva, che hanno lo scopo di assistere il
medico nel suo processo decisionale e possono essere considerati l'equivalente della consultazione di un collega clinico
esperto (Harned et al., 2019).

Esistono strade per affrontare l'attuale mancanza di responsabilità nell'IA medica. In primo luogo, dovrebbero essere stabiliti
processi per identificare i ruoli degli sviluppatori di IA e degli utenti clinici quando le decisioni mediche assistite dall'IA
danneggiano le persone. È inoltre necessario istituire agenzie di regolamentazione dedicate all'IA medica. Questi svilupperanno
e applicheranno quadri normativi per garantire che attori specifici dell'IA medica possano essere ritenuti responsabili, compresi
i produttori di IA.

3.7. Ostacoli all'implementazione nell'assistenza sanitaria nel mondo reale

Negli ultimi cinque anni è stato sviluppato e proposto un gran numero di algoritmi di intelligenza artificiale medica, in un'ampia
gamma di applicazioni mediche, come riassunto nella sezione 2. Tuttavia, anche quando le tecnologie di intelligenza artificiale
medica sono ben convalidate e ritenute clinicamente solide e sicure, nonché eticamente valide e conformi, la strada per
l'implementazione, l'integrazione e l'adozione dell'assistenza sanitaria è ancora irta
con ostacoli specifici nel mondo reale (Shortliffe & Sepulveda, 2018; Fihn et al., 2019; Nagendran).
et al., 2020).

Gli operatori sanitari sono tradizionalmente rimasti indietro rispetto ad altri professionisti per quanto riguarda l'adozione di
nuove tecnologie nella loro attività quotidiana (Quaglio, 2018). Le esperienze passate nel settore sanitario dimostrano che il
periodo di implementazione è una fase chiave nel processo di innovazione. In pratica non basta inventare e testare una nuova
tecnologia AI; dovrebbero essere considerati anche altri fattori che possono ostacolarne l'implementazione nell'assistenza
sanitaria nel mondo reale (Arora, 2020), come (1) i dati limitati
struttura e qualità nei sistemi sanitari elettronici esistenti, (2) l'alterazione del rapporto medico-paziente

27
Machine Translated by Google

STOAA | Panel per il futuro della scienza e della tecnologia

relazione, nonché (3) le difficoltà relative all'integrazione clinica e all'interoperabilità (Figura 9).

Figura 9 – Ostacoli per l'implementazione clinica e l'integrazione di nuovi strumenti di intelligenza


artificiale nella pratica sanitaria del mondo reale, insieme a potenziali misure di mitigazione

Prima di tutto, la qualità dei dati sanitari elettronici nella pratica del mondo reale è fondamentale per facilitare
l'implementazione dell'IA medica. Tuttavia, i dati medici sono notoriamente non strutturati e rumorosi e la maggior
parte dei set di dati esistenti non è sfruttabile negli algoritmi di intelligenza artificiale. Inoltre, i formati e la qualità
dei dati clinici variano in modo significativo tra i centri clinici e tra gli Stati membri dell'UE (Lehne et al., 2019).
Prima che gli strumenti emergenti di intelligenza artificiale medica possano essere completamente implementati
e utilizzati su larga scala, i dati esistenti richiederebbero una revisione umana significativa e costosa, controllo
di qualità, pulizia e rietichettatura. Per migliorare l'interoperabilità dei dati, la creazione di uno European Health
Data Space è stata definita una delle priorità del piano 2019-2025 della Commissione Europea (European Health
Data Space). Ciò promuoverà un migliore riutilizzo di tipi eterogenei di dati sanitari (cartelle sanitarie elettroniche,
dati genomici, dati dei registri dei pazienti, ecc.) in tutti i paesi dell'UE, anche mediante algoritmi emergenti di
intelligenza artificiale.

Inoltre, si prevede che le tecnologie di intelligenza artificiale modificheranno il rapporto tra pazienti e operatori
sanitari in modi non ancora del tutto prevedibili. Alcune specialità, in particolare quelle relative all'analisi delle
immagini, hanno già subito trasformazioni significative dovute all'IA (Gómez-González, 2020 L'emergere di
tecnologie di intelligenza artificiale incentrate sul paziente ha il potenziale per trasformare la relazione medico-
paziente storicamente paternalistica in una partnership congiunta nel processo decisionale grazie alla maggiore
trasparenza e alle conversazioni medico-paziente approfondite (Aminololama & Lopez, 2019). Tuttavia, le
implicazioni personali ed etiche della comunicazione di informazioni sui rischi derivati dall'IA di sviluppare una
malattia (come come predisposizione al cancro o alla demenza) dovranno essere chiariti (Fihn et al., 2019;
Cohen, 2020).Le linee guida cliniche e i modelli di cura dovranno essere aggiornati per considerare le relazioni
mediate dall'IA tra operatori sanitari e pazienti.

28
Machine Translated by Google

Intelligenza artificiale in sanità

Infine, i medici e gli operatori sanitari lavorano secondo linee guida cliniche e standard tecnici stabiliti. L'introduzione
di una tecnologia AI nella pratica quotidiana avrà implicazioni pratiche, tecniche e cliniche sia sui medici che sui
pazienti. In secondo luogo, non è chiaro se gli strumenti di intelligenza artificiale medica saranno sistematicamente
interoperabili tra siti clinici e sistemi sanitari e se saranno facilmente integrati nei flussi di lavoro clinici e tecnici
esistenti (Meskó & Görög, 2020), senza modifiche significative alle pratiche cliniche esistenti, ai modelli di assistenza
e persino ai programmi di formazione.

I produttori di intelligenza artificiale, in collaborazione con gli operatori sanitari e le organizzazioni, dovranno stabilire
procedure operative standard per tutti i nuovi strumenti di intelligenza artificiale per garantirne l'interoperabilità clinica
in siti clinici distinti e la loro integrazione in sistemi sanitari elettronici eterogenei. In particolare, dovrebbero essere
sviluppati nuovi strumenti di intelligenza artificiale, garantendo al tempo stesso la loro futura integrazione e
comunicazione con le tecnologie già esistenti, come il sequenziamento genetico, le cartelle cliniche elettroniche e le
consultazioni sanitarie elettroniche (Arora, 2020).

29
Machine Translated by Google

STOAA | Panel per il futuro della scienza e della tecnologia

4. Metodologia di valutazione del rischio

Le sezioni precedenti di questo rapporto hanno descritto i principali rischi emersi negli ultimi anni in merito all'utilizzo
dell'IA in ambito sanitario. Ciò richiede un approccio strutturato di valutazione e gestione del rischio che affronti in modo
specifico le sfide tecniche, cliniche ed etiche dell'IA nel settore sanitario e medico.

4.1. Quadri normativi per l'IA


I rischi di IA possono essere caratterizzati e classificati in base alla gravità del danno che possono indurre, nonché alla
probabilità e alla frequenza del danno indotto. Nel settore sanitario, i rischi di IA variano notevolmente, da rischi rari e/o
bassi che inducono danni limitati e gestibili ai pazienti e ai cittadini, a rischi frequenti e/o elevati che possono causare
danni o danni irreversibili. Ad esempio, un algoritmo di intelligenza artificiale può influire sulla produttività dei medici (ad
es. lo strumento di intelligenza artificiale non riesce a delineare con precisione i confini del cuore in un volume di
immagine cardiaca, che deve essere migliorato manualmente dal cardiologo), ma può anche causare danni alla salute
del paziente e avere un serio impatto sugli esiti clinici (ad esempio, lo strumento di intelligenza artificiale non riesce a
diagnosticare una condizione pericolosa per la vita).

Pertanto, per ridurre al minimo i rischi dell'IA e massimizzarne i benefici nell'assistenza sanitaria futura, è importante
identificare, analizzare, comprendere e monitorare i potenziali rischi caso per caso per ogni nuovo algoritmo e
applicazione dell'IA. Un passo importante della procedura di valutazione del rischio dovrebbe essere l'elaborazione di
una metodologia per classificare i rischi individuati in una serie di categorie che rappresentano diversi livelli e tipi di
rischio. Per ogni livello, è necessario specificare una serie di test o regolamenti per mitigare e affrontare i rischi di IA, in
modo tale che le classi di rischio più elevate richiederanno più test e normative, mentre i rischi più bassi si tradurranno
in misure di mitigazione del rischio limitate. Un'adeguata classificazione del rischio dell'IA in base alla gravità e alla
probabilità consentirà ai produttori, agli operatori sanitari e alle autorità di regolamentazione di intervenire quanto
necessario per garantire la protezione dei pazienti, nonché i loro diritti e valori; tuttavia, è anche importante che queste
classificazioni non servano, per quanto possibile, a ostacolare l'innovazione nell'IA sanitaria.

Attualmente, i regolamenti applicabili per gli strumenti di intelligenza artificiale medica nell'UE sono i regolamenti sui
dispositivi medici (MDR) 2017/745 e il regolamento sui dispositivi medico-diagnostici in vitro (IVDR) 2017/746, istituiti
nel 2017. L'MDR si applica al software come dispositivi medici, incluso il software basato sull'intelligenza artificiale,
mentre l'IVDR si applica alla diagnostica basata in vitro, incluso l'IA. Questi regolamenti
includeva nuovi approcci per un controllo pre-commercializzazione più rigoroso, maggiori requisiti per le indagini cliniche,
una sorveglianza rafforzata lungo tutto il ciclo di vita del dispositivo e una maggiore trasparenza grazie alla creazione di
una banca dati europea dei dispositivi medici. Tuttavia, molti aspetti specifici dell'intelligenza artificiale non vengono
considerati, come l'apprendimento continuo dei modelli di intelligenza artificiale o l'identificazione di distorsioni algoritmiche.
In particolare, il fatto che l'IA sia una tecnologia altamente adattiva che continua ad apprendere e adattarsi nel tempo,
man mano che diventano disponibili più dati, richiede nuovi approcci per monitorare i rischi del software AI.

Una delle prime proposte per la valutazione del rischio nel campo dell'IA è arrivata nel 2018, quando la Commissione
tedesca per l'etica dei dati ha proposto di classificare i rischi degli algoritmi decisionali generali in base alla loro criticità,
ovvero il potenziale del sistema di causare danni (Commissione tedesca per l'etica dei dati, 2019). È stata proposta una
"piramide di criticità" comprendente cinque livelli di rischio/criticità (1: potenziale di danno nullo o trascurabile; 2:
potenziale di danno minimo; 3: potenziale di danno regolare o significativo; 4: potenziale di danno grave; 5: potenziale
di danno insostenibile).

In base a questa proposta, si raccomanda un sistema di test o di regolamentazione adattato a seconda del livello di
rischio, che potrebbe includere meccanismi correttivi e di supervisione, specifiche relative alla trasparenza dei sistemi
algoritmici e alla spiegabilità e comprensibilità dei risultati, oppure

30
Machine Translated by Google

Intelligenza artificiale in sanità

regole sull'attribuzione di responsabilità e responsabilità nell'ambito dello sviluppo e dell'uso di sistemi algoritmici.

Nel 2021, la Commissione europea (CE) ha pubblicato una proposta tanto attesa per la regolamentazione dell'IA e per
l'armonizzazione delle norme che disciplinano le tecnologie dell'IA in tutta Europa, in modo da affrontare le
preoccupazioni relative alla sicurezza e ai diritti umani (Commissione europea, 2021). Analogamente alla proposta del
2018 della Commissione tedesca per l'etica dei dati, la bozza di quadro dell'UE ha fornito una definizione di IA basata
sul rischio, insieme a requisiti obbligatori per i sistemi di IA ad alto rischio. Concretamente, il documento raccomandava
di classificare gli strumenti di IA in base a tre livelli principali di rischio: (i) rischio inaccettabile, (ii) rischio elevato e (iii)
rischio basso o minimo.

La categoria più alta corrisponde agli strumenti di intelligenza artificiale che contraddicono i valori dell'UE e quindi
dovrebbero essere vietati. Il documento (titolo II, articolo 5) fornisce alcuni esempi di tali strumenti di intelligenza
artificiale, ad esempio la manipolazione subliminale con conseguente danno fisico/psicologico; sfruttamento delle
vulnerabilità con conseguente danno fisico/psicologico; punteggio sociale; identificazione biometrica in tempo reale
negli spazi pubblici (con poche eccezioni).

La categoria intermedia, e di particolare interesse, corrisponde all'IA ad alto rischio, che può essere consentita solo
quando gli strumenti rispondono a specifici requisiti. Tali strumenti di IA ad alto rischio (titolo III, capitolo 1) comprendono
componenti di sicurezza di prodotti regolamentati (compresi i dispositivi medici, ma anche
altri prodotti come giocattoli e macchinari) e alcuni sistemi di IA autonomi in settori quali il funzionamento di infrastrutture
critiche, l'accesso ai servizi privati nonché la gestione dell'occupazione e dei lavoratori. Sembra che molti strumenti di
intelligenza artificiale medica, in particolare quelli autonomi, saranno classificati come ad alto rischio. La proposta
prevede requisiti e obblighi concreti per un'adeguata gestione del rischio nell'IA ad alto rischio, come elencato nel
riquadro 1:

Casella 1 – Requisiti e obblighi per l'alto rischio Strumenti AI secondo A


il 2021 Proposta CE

Requisiti per alto rischio IA:

• Utilizzare dati di formazione, validazione e test di alta qualità (rilevanti, rappresentativi).

• Redigere la documentazione tecnica e configurare le funzionalità di registrazione (tracciabilità e verificabilità).

• Garantire un adeguato grado di trasparenza e fornire agli utenti informazioni sulle capacità e sui limiti del
sistema e su come utilizzarlo.

• Garantire la supervisione umana (misure integrate nel sistema e/o da attuare da parte di
utenti).

• Garantire solidità, accuratezza e sicurezza informatica.

Obblighi:

• Stabilire e implementare un sistema di gestione della qualità nella propria organizzazione.

• Redigere e mantenere aggiornata la documentazione tecnica.

• Sottoporsi a valutazione di conformità ed eventuale rivalutazione del sistema (in caso di modifiche sostanziali).

• Registrare il sistema di IA nel database dell'UE.

• Apporre la marcatura CE e firmare la dichiarazione di conformità.

• Condurre il monitoraggio post-vendita.


• Collaborare con le autorità di sorveglianza del mercato.

• Informare il fornitore o il distributore di qualsiasi incidente grave o malfunzionamento.

• Continuare ad applicare gli obblighi legali esistenti (ad esempio ai sensi del GDPR).

31
Machine Translated by Google

STOAA | Panel per il futuro della scienza e della tecnologia

La categoria più bassa si riferisce agli strumenti di IA a rischio minimo, che non hanno obblighi vincolanti, ma la CE incoraggia
l'elaborazione di codici di condotta, nonché l'applicazione volontaria dei requisiti per i sistemi di IA ad alto rischio o altri requisiti
(articolo 69).

Oltre a queste tre categorie di rischi (inaccettabile, alto e basso), il documento (articolo 52) discute un'ulteriore categoria di sistemi
di IA, come quelli che interagiscono con gli individui o li espongono al riconoscimento emotivo o biometrico, per i quali esiste un
esplicito obbligo di trasparenza.
In questo caso, le persone devono essere informate che stanno interagendo con un sistema di IA (Figura 10).

Figura 10 – Classificazione del rischio dell'IA secondo la proposta dell'UE del 2021 sulla legislazione sull'IA

Il progetto di regolamento sull'IA non affronta specificamente l'IA nell'assistenza sanitaria, ma suggerisce nella sua forma attuale
che i dispositivi medici basati sull'IA saranno classificati come ad alto rischio, a causa dei problemi di sicurezza e privacy associati.
Ciò significa che i futuri strumenti di IA medica dovrebbero soddisfare tutti i requisiti già stabiliti dal regolamento sui dispositivi
medici, ma anche quelli elencati nel capo II del regolamento IA (uso di dati rappresentativi e di alta qualità, documentazione
tecnica e tracciabilità, requisiti di trasparenza, controllo umano, sistema di gestione della qualità, valutazione della conformità,
ecc.).

Tuttavia, si può sostenere che non tutti gli strumenti di intelligenza artificiale medica sono sistematicamente ad alto rischio. Ad
esempio, in radiologia sono stati sviluppati molti strumenti di intelligenza artificiale per accelerare il rimodellamento di organi e lesioni
immagini mediche, prima della quantificazione e della diagnosi (ad es. il contorno dei confini dei ventricoli cardiaci o il contorno
dei confini dei tumori polmonari). Tali strumenti di elaborazione basati sull'intelligenza artificiale sono molto importanti e di fatto
già in uso nella pratica clinica, ma non richiedono necessariamente di essere trasparenti in quanto i medici possono valutare
visivamente i risultati della modellazione automatica e correggere eventuali errori, quindi i rischi sono minimi. Per continuare a
promuovere innovazioni e investimenti nell'IA medica, potrebbero essere necessari meccanismi per discriminare tra l'IA a basso
e ad alto rischio nell'assistenza sanitaria.

Con questo nuovo quadro normativo, la marcatura CE e l'approvazione normativa nell'IA medica possono assumere la seguente
forma:

• Determinare se lo strumento AI è classificato come ad alto rischio ai sensi del nuovo regolamento AI.

• Garantire che i sistemi di progettazione, sviluppo e gestione della qualità dell'IA siano conformi al regolamento
sull'IA.

• Sottoporsi alla procedura di valutazione della conformità per valutare e dimostrare la conformità.

• Apporre la marcatura CE al sistema e firmare una dichiarazione di conformità.

• Implementare lo strumento AI nella pratica o distribuirlo sul mercato.

È importante notare che la proposta della CE per la regolamentazione dell'IA è generale per tutti i settori della società: non tiene
conto delle specificità e dei rischi dell'IA nel settore sanitario. Inoltre, la proposta della CE mantiene alcuni dei limiti del MDR e
dell'IVDR, come la mancanza di

32
Machine Translated by Google

Intelligenza artificiale in sanità

meccanismi per affrontare la natura dinamica delle tecnologie di intelligenza artificiale. Attualmente, l'apprendimento continuo, che
è fondamentale per le tecnologie di intelligenza artificiale medica, può essere considerato una modifica sostanziale e richiederebbe
una rivalutazione della tecnologia di intelligenza artificiale.

4.2. Minimizzazione del rischio attraverso l'autovalutazione del rischio

Per l'identificazione del rischio nell'IA, diverse parti interessate hanno suggerito un approccio strutturato di autovalutazione composto
da liste di controllo e domande specificate. Ad esempio, il gruppo indipendente di esperti di alto livello sull'intelligenza artificiale (AI
HLEG), istituito dalla Commissione europea, ha pubblicato una lista di controllo per la valutazione di un'IA affidabile denominata
ALTAI. La lista di controllo è strutturata in sette categorie: (1) intervento umano e supervisione; (2) solidità tecnica e sicurezza; (3)
privacy e governance dei dati; (4) trasparenza; (5) diversità, non discriminazione ed equità; (6) benessere ambientale e sociale; e
(7) responsabilità (ALTAI, 2020). Nel riquadro 2, vengono forniti alcuni esempi di domande di autovalutazione che sono state
proposte come mezzo per identificare potenziali limiti per affidabilità, privacy, spiegabilità ed equità:

Riquadro 2 – Esempi di domande di autovalutazione dalla lista di controllo ALTAI (ALTAI, 2020)

Per affidabilità:

• Il sistema di IA potrebbe causare conseguenze critiche, contraddittorie o dannose (ad esempio relative alla sicurezza umana) in caso
di scarsa affidabilità e/o riproducibilità?

• Hai messo in atto un processo ben definito per monitorare se il sistema di intelligenza artificiale soddisfa le aspettative
obiettivi?

• Hai testato se è necessario prendere in considerazione contesti o condizioni specifici per assicurarti
riproducibilità?

• Sono stati messi in atto metodi e documentazione di verifica e convalida (ad es. registrazione) per valutare e garantire diversi aspetti
dell'affidabilità e della riproducibilità del sistema di IA?

• Avete chiaramente documentato e reso operativi i processi per il test e la verifica dell'affidabilità e della riproducibilità del sistema di IA?

• È stata messa in atto una procedura adeguata per gestire i casi in cui il sistema di intelligenza artificiale fornisce risultati con un
punteggio di affidabilità basso?

• Il tuo sistema di intelligenza artificiale utilizza l'apprendimento continuo (online)?

Per la riservatezza dei dati:

• Hai messo in atto una delle seguenti misure, alcune delle quali sono obbligatorie ai sensi del
Regolamento generale sulla protezione dei dati (GDPR) o un equivalente non europeo?

ÿ Valutazione d'impatto sulla protezione dei dati (DPIA);

ÿ Designare un responsabile della protezione dei dati (DPO) e includerlo in una fase iniziale del
fase di sviluppo, approvvigionamento o utilizzo del sistema di IA;

ÿ Misure per raggiungere la privacy by design e l'impostazione predefinita (ad es. crittografia,
pseudonimizzazione, aggregazione, anonimizzazione);

ÿ Hai esercitato il diritto di revocare il consenso, il diritto di opposizione e il diritto di


essere dimenticato nello sviluppo del sistema di intelligenza artificiale?

Per spiegabilità:

• Hai spiegato agli utenti la/le decisione/i del sistema di IA?

• Indaghi continuamente gli utenti se comprendono le decisioni del sistema di intelligenza artificiale?

Per la valutazione della correttezza:

33
Machine Translated by Google

STOAA | Panel per il futuro della scienza e della tecnologia

• Avete considerato la diversità e la rappresentatività degli utenti finali e/o dei soggetti nei dati?

• Hai eseguito test per gruppi target specifici o casi d'uso problematici?

• Hai ricercato e utilizzato strumenti tecnici pubblicamente disponibili, che sono all'avanguardia, per migliorare
la tua comprensione dei dati, del modello e delle prestazioni?

• Sono stati valutati e messi in atto processi per testare e monitorare potenziali distorsioni durante l'intero ciclo di vita
del sistema di IA (ad es. distorsioni dovute a possibili limitazioni derivanti dalla composizione dei set di dati
utilizzati (mancanza di diversità, non rappresentatività)?

La checklist completa per la valutazione e le domande per tutte le categorie sono disponibili online presso l'Ufficio
delle pubblicazioni dell'Unione europea (ALTAI, 2020). È disponibile anche come strumento online per gli utenti registrati.
È importante notare che l'elenco è stato concepito per l'IA in generale e deve essere adattato a ciascun dominio
applicativo specifico, inclusa l'assistenza sanitaria.

A nostra conoscenza, la prima lista di controllo di autovalutazione per l'IA nell'assistenza sanitaria è stata pubblicata
da un team multidisciplinare di ricercatori australiani nel 2021. Il suo obiettivo era aiutare i medici a valutare quanto
gli algoritmi siano pronti per l'uso nelle cure di routine e individuare le aree in cui potrebbero essere necessari ulteriori
sviluppi e perfezionamenti prima dell'implementazione (Scott et al., 2021). Questo elenco è stato compilato sulla base
di alcune revisioni narrative sull'IA nell'assistenza sanitaria, che sono state riassunte in una serie di domande di
valutazione organizzate in 10 domande generali come elencato nel riquadro 3.

Riquadro 3 – Domande dalla checklist di valutazione per gli strumenti di intelligenza artificiale medica, come mostrato in Scott et al., 2021

• Qual è lo scopo e il contesto dell'algoritmo?

• Quanto erano validi i dati utilizzati per addestrare l'algoritmo?

• I dati erano sufficienti per addestrare l'algoritmo?

• Quanto bene funziona l'algoritmo?


• L'algoritmo è trasferibile a nuove impostazioni cliniche?

• Gli output dell'algoritmo sono clinicamente comprensibili?

• In che modo questo algoritmo si inserirà e completerà i flussi di lavoro attuali?

• È stato dimostrato che l'uso dell'algoritmo migliora la cura del paziente ei risultati?

• L'algoritmo potrebbe causare danni al paziente?

• L'uso dell'algoritmo solleva preoccupazioni etiche, legali o sociali?

Tuttavia, questo elenco di autovalutazione non contiene lo stesso livello di dettaglio dell'elenco di controllo della
valutazione per l'IA generale ideato dall'HLEG per l'IA. Ad esempio, il punto 10 nel riquadro 3 è piuttosto vago e
consente di individuare l'esatta preoccupazione etica, legale o sociale (ad esempio bias algoritmico). Sembra che una
combinazione di entrambi gli approcci porterebbe a una lista di controllo dettagliata e standardizzata per la valutazione
del rischio per l'IA nell'assistenza sanitaria, generata attraverso il consenso e con ciascuna categoria di rischio
arricchita con una serie dettagliata di domande di valutazione.

Ciò ha motivato il recente sviluppo di linee guida di consenso per un'IA affidabile in medicina da parte di una rete di
progetti di ricerca finanziati dalla CE insieme a esperti interdisciplinari internazionali.
Intitolate FUTURE-AI (www.future-ai.eu), queste linee guida sono organizzate secondo sei principi (Equità,
Universalità, Tracciabilità, Usabilità, Robustezza, Spiegabilità) e comprendono raccomandazioni concrete e una
checklist di autovalutazione per consentire a progettisti, sviluppatori, valutatori e regolatori di IA di sviluppare soluzioni
di IA affidabili ed etiche in medicina e sanità (Lekadir et al., 2022). Il riquadro 4 elenca esempi di domande di
valutazione del rischio incluse nella checklist di autovalutazione FUTURE-AI.

34
Machine Translated by Google

Intelligenza artificiale in sanità

Riquadro 4 – Estratti di elementi di valutazione del rischio dalle linee guida FUTURE-AI per un'IA affidabile in
medicina (versione del 27 febbraio 2022)

Equità:

• Hai progettato il tuo algoritmo AI con un team eterogeneo di parti interessate? Hai raccolto
requisiti da una serie diversificata di utenti finali?

• Hai definito l'equità per la tua specifica applicazione AI? Hai chiesto ai medici informazioni sulle fonti
nascoste di squilibrio dei dati?

• Hai valutato a fondo l'equità del tuo algoritmo AI? Hai usato un adatto
set di dati e metriche dedicate?

Universalità:

• Hai annotato il tuo set di dati in modo oggettivo, riproducibile e standardizzato?

• Sono stati utilizzati criteri e metriche universali, trasparenti, comparabili e riproducibili per la valutazione
delle prestazioni del modello?

• Hai valutato il tuo modello su almeno un set di dati di benchmark ad accesso aperto che sia
rappresentativo dell'attività del tuo modello e della prevista esposizione dei dati nel mondo reale
dopo l'implementazione?

Tracciabilità:

• Hai preparato una documentazione completa dei set di dati che hai utilizzato? Hai incluso i metadati
pertinenti?

• Hai tenuto traccia, in modo strutturato, dell'intera pipeline di pre-elaborazione dei dati di input? Sono
stati specificati input/output, natura, prerequisiti e requisiti dei metodi di pre-elaborazione e
preparazione dei dati?

• Hai registrato i dettagli del processo di formazione? Hai incluso un'attenta descrizione di
predittori di input?

Usabilità:

• Hai coinvolto gli utenti nella progettazione e nello sviluppo dello strumento AI?

• Hai valutato l'usabilità del tuo strumento dopo l'integrazione nei flussi di lavoro clinici del
sedi cliniche?

Robustezza:

• Hai addestrato e valutato i tuoi strumenti con set di dati eterogenei provenienti da più centri clinici e
protocolli di dati?

• Hai valutato lo strumento AI in diversi scenari del mondo reale?

• Hai utilizzato meccanismi di controllo della qualità per identificare potenziali deviazioni o artefatti in
i dati di input?

Spiegabilità:

• Ti sei consultato con i medici per determinare quali metodi di spiegabilità fossero adatti a loro?

• Hai utilizzato alcuni test di valutazione quantitativa per determinare se le spiegazioni sono robuste e
affidabili? Hai eseguito alcuni test di valutazione qualitativa con i clinici?

È stata inoltre dichiarata la necessità di adattare ulteriormente la valutazione del rischio dell'IA a specifici domini
medici. Ad esempio, nel campo della radiologia, varie importanti associazioni radiologiche europee e
nordamericane (American College of Radiology, European Society of Radiology, Radiological Society of North
America, Society for Imaging Informatics in Medicine, European Society of Medical Imaging Informatics, Canadian
Association of Radiologists e American Association of Physicists in Medicine) si sono riunite per rilasciare una
dichiarazione sulle sfide etiche dell'uso dell'IA in radiologia.

35
Machine Translated by Google

STOAA | Panel per il futuro della scienza e della tecnologia

Hanno affermato che "la comunità della radiologia dovrebbe iniziare ora a sviluppare codici etici e pratici per l'IA che
promuovano qualsiasi uso che aiuti i pazienti e il bene comune" (Geis et al, 2019).

Le checklist di valutazione presentate in questa sezione hanno utilizzato diverse categorie di rischi, nonché diverse domande
di valutazione. Standardizzare, adattare e convalidare questi approcci attraverso il consenso di società professionali e gruppi
indipendenti su base dominio per dominio (ad es.
radiologia vs. chirurgia) risulterebbe in processi più robusti per l'identificazione e la gestione del rischio.
Inoltre, poiché sempre più algoritmi di AI nel settore sanitario saranno sottoposti ad autovalutazione per i rischi etici, legali e
tecnici, queste liste di controllo dovrebbero essere regolarmente perfezionate e versioni aggiornate saranno rilasciate per la
comunità tenendo conto dei continui sviluppi nei metodi, nei processi e nelle normative dell'IA.

4.3. Identificazione del rischio attraverso un approccio completo e sfaccettato


valutazione clinica delle soluzioni AI
Per identificare, anticipare e gestire i rischi nell'IA medica, sono di fondamentale importanza procedure adeguate per la
valutazione dei modelli di intelligenza artificiale. Finora, la valutazione dell'intelligenza artificiale è stata ottenuta principalmente
esaminando l'accuratezza e la robustezza del modello nelle impostazioni di laboratorio. Altri aspetti dell'IA, come la sicurezza
e l'efficacia clinica, l'equità e la non discriminazione, la trasparenza e la tracciabilità, nonché la privacy e la sicurezza, sono
più difficili da valutare in ambienti controllati e hanno ricevuto meno attenzione nella letteratura scientifica.

Date le lacune esistenti, la Food and Drug Administration (FDA) statunitense ha proposto un piano d'azione nel 2021 per
regolamentare meglio e far progredire la supervisione dell'agenzia sul software di intelligenza artificiale medica, che ha promosso
'
gli sforzi della scienza normativatosviluppano una metodologia per la valutazione e il miglioramento degli algoritmi di machine
learning ' (FDA, 2021). Parallelamente, diversi gruppi di ricerca hanno anche studiato e proposto nuovi
approcci per una valutazione migliore e completa degli algoritmi di intelligenza artificiale medica, in particolare in Nord
America (Larson et al., 2021; Park et al., 2020), Europa e Asia (Park & Han, 2018),
così come da società internazionali come l'International Association of Medical Informatics
(Magrabi et al., 2019). In questa sezione, riassumeremo i loro risultati in una serie di cinque raccomandazioni principali per
consentire una valutazione multiforme e completa del futuro software di intelligenza artificiale nel settore sanitario, come
illustrato nella Figura 11.

Figura 11 – Raccomandazioni per una migliore valutazione delle prestazioni e dei rischi dell'algoritmo
nell'IA medica

36
Machine Translated by Google

Intelligenza artificiale in sanità

4.3.1. Definizione standardizzata dei compiti clinici

Per consentire una valutazione obiettiva e comparativa delle soluzioni di intelligenza artificiale medica, i ricercatori
della Stanford University hanno recentemente proposto di standardizzare la definizione dei compiti clinici che gli
algoritmi di intelligenza artificiale stanno affrontando (Larson et al., 2021). In pratica, ci sono molti modi per definire
un compito clinico,come la diagnostica medica. A titolo illustrativo, la diagnosi e la segnalazione della gravità del
COVID-19 sulla base delle scansioni di imaging del torace sono state proposte utilizzando diversi schemi (Larson
et al., 2021), tra cui:

• Due categorie: etichettatura del radiologo della presenza o dell'assenza della malattia.

• Quattro categorie proposte dalla Radiological Society of North America (RSNA) (Simpson et al., 2020):
(1) tipico, (2) indeterminato, (3) aspetto atipico e (4) negativo per polmonite.

• Sei categorie basate sulla scala CO-RADS (Prokop et al., 2020): (1) negativo, (2) basso,
(3) indeterminato, (4) alto, (5) molto alto, (6) PCR +.
• Vari sistemi di punteggio della gravità della lesione nei polmoni, come (i) un punteggio di gravità da 0 a 4 per ciascuna delle
sei zone polmonari, per un punteggio totale da 0 a 24, (ii) un punteggio di gravità da 0 a 5 per ciascuno dei cinque lobi
polmonari, per un punteggio totale da 0 a 25, (iii) un punteggio di gravità da 0 a 7 per ciascuno dei cinque lobi polmonari,
per un punteggio totale di 35.

Ciascuno di questi sistemi diagnostici potrebbe essere incorporato in un algoritmo basato sull'intelligenza artificiale,
il che rende più difficile la valutazione obiettiva delle prestazioni dell'algoritmo e dei rischi associati. Ciò limita anche
la capacità di confrontare direttamente gli algoritmi basati sull'intelligenza artificiale originariamente sviluppati per la
stessa attività clinica, data l'esistenza di definizioni multiple. Ad oggi, le definizioni dei compiti clinici sono state
generalmente sviluppate con una supervisione e un coordinamento relativamente limitati. Poiché queste attività
cliniche saranno sempre più eseguite sulla base di algoritmi di intelligenza artificiale sviluppati da sviluppatori non clinici, lo è
È importante che le definizioni, che fanno parte delle specifiche del software di intelligenza artificiale, siano
sviluppate secondo principi di definizione degli standard accettati e basati sul consenso e mantenute da entità non
in conflitto impegnate ad aggiornare le definizioni sulla base di nuove prove e input delle parti interessate. Le società
mediche, come la Società europea di cardiologia, la Società europea di radiologia o la Società europea di oncologia
medica, potrebbero svolgere un ruolo importante nella standardizzazione della definizione dei compiti clinici per l'IA
medica nei rispettivi campi. Con questo approccio, la responsabilità degli sviluppatori sarà limitata all'ottimizzazione
delle prestazioni degli algoritmi di intelligenza artificiale sulla base di definizioni di attività diagnostiche di riferimento
ampiamente accettate e utilizzate, il che contribuirebbe a garantire un'accettazione diffusa delle soluzioni di
intelligenza artificiale da parte delle parti interessate.

4.3.2. Valutazione sfaccettata delle prestazioni oltre la precisione


Dati i molteplici rischi e le considerazioni etiche dell'IA medica, è ormai ampiamente accettato che la valutazione
degli algoritmi debba essere estesa ben oltre gli approcci esistenti che si sono concentrati principalmente
sull'accuratezza del modello. Mentre resta la valutazione empirica degli algoritmi di machine learning
una questione di dibattito in corso tra i ricercatori, è necessario lo sviluppo di domini di prestazioni specifici per l'IA
nell'assistenza sanitaria. La Tabella 2 mostra alcuni esempi di elementi prestazionali recentemente proposti per
algoritmi diagnostici basati su IA in radiologia (Larson et al., 2021). Questi includono l'accuratezza della
classificazione, ma anche affidabilità, applicabilità, trasparenza, monitorabilità, usabilità e altro (vedi Tabella 2).

37
Machine Translated by Google

STOAA | Panel per il futuro della scienza e della tecnologia

Tabella 2 – Esempi di elementi prestazionali per algoritmi AI di imaging (da Larson, et. al.,
2021)
Accurato L'algoritmo dovrebbe eseguire accuratamente tutte le attività diagnostiche per le quali è stato progettato.

L'algoritmo dovrebbe rimanere accurato nell'impostazione della variazione ragionevolmente prevista riscontrata
Affidabile nell'ambiente clinico, comprese le variazioni ragionevoli nella qualità dell'immagine.

L'accuratezza dell'algoritmo dovrebbe essere mantenuta in tutte le marche e modelli di modalità di immagine
Applicabile
e per tutte le popolazioni di pazienti per le quali è progettato per funzionare.

L'algoritmo dovrebbe dare la stessa risposta per la stessa immagine se utilizzato in momenti diversi e in
Deterministico
impostazioni diverse.

Non L'algoritmo dovrebbe essere in grado di riconoscere le informazioni salienti dall'immagine e non modificare la
distraibile sua valutazione sulla base di dati immagine estranei e non contributivi.

L'algoritmo dovrebbe avere i mezzi per rilevare quando si trova al limite o oltre i limiti delle sue capacità, a
causa di limitazioni intrinseche del modello, limitazioni della sua applicabilità clinica o limitazioni imposte dalla
Autoconsapevolezza dei limiti
variazione clinica come l'anatomia del paziente imprevista o la qualità dell'immagine.

L'algoritmo dovrebbe riconoscere quando ha raggiunto una conclusione errata e avere i mezzi per garantire
A prova di errore che tutti gli errori vengano rilevati e fermati prima che si propaghino nell'ambiente clinico

L'interfaccia utente dovrebbe consentire all'operatore di vedere chiaramente il collegamento tra l'input e
Logica l'output, compresi quali dati sono stati analizzati, quali alternative sono state prese in considerazione e perché
trasparente determinate possibilità sono state escluse, per essere in grado di accettare o rifiutare correttamente la
conclusione dell'algoritmo su un dato caso.

Grado L'algoritmo dovrebbe condividere con l'utente un livello di confidenza nella sua valutazione per ogni caso.
trasparente di L'accuratezza dell'espressione di confidenza del modello dovrebbe essere convalidata così come l'accuratezza
fiducia del modello stesso.

L'algoritmo dovrebbe condividere i dati sulle prestazioni con gli utenti per consentire il monitoraggio continuo
In grado di
dei casi individuali e aggregati, evidenziando rapidamente eventuali scostamenti significativi nelle prestazioni.
essere monitorato

Dovrebbe essere fornito un mezzo indipendente per monitorare le prestazioni in corso dell'algoritmo in modo
Audibile da guidare un intervento appropriato. Ciò può includere controlli di qualità periodici simili a quelli eseguiti dagli
operatori sulle apparecchiature di imaging.

L'interfaccia utente dovrebbe consentire all'operatore di utilizzare in modo intuitivo l'algoritmo con la minima
Interfaccia
formazione possibile e imporre il minimo carico cognitivo possibile all'utente.
utente intuitiva

Tuttavia, sembra che tale elenco sia incompleto, in quanto non sono stati presi in considerazione alcuni importanti
rischi dell'IA nell'assistenza sanitaria, come il pregiudizio algoritmico e la disuguaglianza. Tra i pochi lavori che
hanno indagato direttamente l'equità dell'IA in medicina, vale la pena menzionare un recente studio che ha
valutato le reti neurali profonde all'avanguardia su grandi set di dati pubblici di radiografie del torace rispetto al
sesso, all'età, alla razza e al tipo di assicurazione del paziente, quest'ultimo come proxy dello stato
socioeconomico (Seyyed Kalantari et al, 2020). Lo studioi modelli addestrati
ha concluso che ' su grandi set di dati non forniscono
naturalmentepari opportunità, portando invece a potenziali disparità se implementatisenza curarsi della modifica
'. In questo lavoro, gli autori hanno utilizzato i cosiddetti tassi veri positivi (TPR) come misura di
equità, ma in letteratura sono stati proposti anche altri criteri, come la parità statistica, l'equità di gruppo, gli odds
equalizzati e l'uguaglianza predittiva (Barocas et al., 2017).

38
Machine Translated by Google

Intelligenza artificiale in sanità

Data l'attuale mancanza di alfabetizzazione e fiducia nell'IA, l'usabilità clinica è un altro aspetto dell'IA medica che è
stato raccomandato per la convalida con gli utenti finali. Per migliorare l'accettazione clinica, l'utilità percepita e
l'adozione futura, l'algoritmo AI e le sue interfacce visive dovrebbero consentire all'operatore di sapere intuitivamente
come utilizzare lo strumento con la minima formazione possibile, per imporre il minimo carico di lavoro cognitivo
possibile all'utente e per migliorare l'efficienza clinica diminuendo il tempo decisionale. Durante i test di usabilità, i
questionari possono essere utilizzati per raccogliere informazioni quantitative e qualitative sulla soddisfazione
dell'utente con lo strumento AI (Lewis, 2018). Ad esempio, nel valutare l'usabilità di un algoritmo basato sull'intelligenza
artificiale per la cura della depressione, i ricercatori di (Tanguay Sela et al., 2020) hanno utilizzato domande specifiche
sull'usabilità, come illustrato nel riquadro 5.

Riquadro 5 – Estratti di un questionario sull'usabilità per la valutazione di una tecnologia AI per la cura della depressione
(Tanguay Sela et al., 2020)

• Le probabilità prodotte dal modello, nel complesso, sono risultate: troppo ottimistiche; ragionevole; pure
pessimista.

• L'applicazione ha interferito con il mio colloquio con il paziente: assolutamente d'accordo; abbastanza d'accordo;
insicuro; in qualche modo in disaccordo; fortemente in disaccordo.

• In base alla tua esperienza complessiva di oggi, quanto ti fidi del modello predittivo per aiutarti a scegliere i
trattamenti per la depressione (1 sta per 'molto poco' e 5 sta per 'molto)?

• Il modello ci ha fornito informazioni più ricche da discutere: pienamente d'accordo; alquanto


Essere d'accordo; insicuro; in qualche modo in disaccordo; fortemente in disaccordo.

• Sulla base della tua esperienza odierna, ritieni che l'utilizzo dell'applicazione ti costerebbe molto tempo (1 sta per
"ti costa molto tempo" e 5 sta per "ti fa risparmiare molto tempo"):

• Useresti l'applicazione: Per tutti i pazienti con depressione; Solo per i pazienti più gravi; solo per i pazienti in cui un
trattamento ha fallito; solo per i pazienti in cui più di un trattamento ha fallito; Affatto; per esaminare le
informazioni sul paziente.

Altri elementi di usabilità che potrebbero essere valutati in un questionario di usabilità includono: livello di comprensione
della diagnosi da parte di pazienti e clinici; livello di comprensione delle opzioni terapeutiche da parte di pazienti e
medici; qualità percepita della comunicazione tra paziente e medico; grado di interpretabilità delle previsioni guidate
dall'intelligenza artificiale per i clinici; livello di soddisfazione per la tecnologia, le interfacce utente; comprensione della
terminologia tecnica da parte di medici e pazienti; utilità di messaggi/avvisi di errore; generale facilità d'uso; impatto
sulla produttività del medico; livello di intenzione di utilizzo del sistema (ad es. solo quando necessario rispetto al
pieno utilizzo) e così via.

Anche se l'intelligenza artificiale è convalidata come accurata, affidabile, equa e di facile utilizzo, ciò potrebbe non
portare necessariamente a benefici per il paziente. I ricercatori della Corea del Sud hanno suggerito di valutare
l'impatto sugli esiti dei pazienti per confermare l'utilità clinica e consentire alla tecnologia AI di essere accettata e
raccomandata da esperti clinici, società accademiche o organizzazioni di terze parti indipendenti (Park & Han, 2018).
Oltre a dimostrare la sua efficacia clinica, dovrebbe essere eseguita sistematicamente anche la valutazione del
rapporto costo-efficacia, dati gli enormi investimenti nell'IA medica con efficienze promesse e riduzioni dei costi solo
ipotizzate. Ad esempio, le valutazioni economiche che utilizzano la modellazione analitica delle decisioni (Hill et al.,
2020) possono essere utilizzate per valutare se i costi aggiuntivi della soluzione di intelligenza artificiale sono
giustificati dato l'effetto modellato, ad esempio sulla qualità della vita correlata alla salute (ad es. QALY, o anni di vita
aggiustati per la qualità). È importante sottolineare che l'investimento iniziale e i costi operativi per una determinata
infrastruttura e servizio di IA devono essere inclusi nell'analisi del rapporto costo-efficacia (Wolff et al., 2020).
Infine, dato che gli algoritmi di intelligenza artificiale continuano ad apprendere nel tempo man mano che diventano
disponibili più dati, è importante adattare i quadri di convalida esistenti per consentire il monitoraggio continuo delle
prestazioni durante l'intero ciclo di vita dello strumento di intelligenza artificiale nell'ambiente clinico.

39
Machine Translated by Google

STOAA | Panel per il futuro della scienza e della tecnologia

4.3.3. Suddivisione del processo di valutazione in fasi distinte.


Invece di valutare le soluzioni di intelligenza artificiale medica in un'unica procedura, alcune pubblicazioni hanno
recentemente raccomandato di implementare un approccio in più fasi in cui gli algoritmi sviluppati vengono sottoposti
a diverse fasi di valutazione con obiettivi diversi e complessità crescente. Ad esempio, sono state proposte quattro
fasi (dalla fase I alla fase IV) per la convalida dell'IA nel campo dell'imaging diagnostico, vale a dire (1) test di
fattibilità, (2) capacità, (3) efficacia e (4) durata (Larson et al., 2021) (Figura 12):

• Fase I – Fattibilità: l'obiettivo è eseguire una valutazione iniziale/pilota dell'algoritmo in laboratorio in


condizioni ideali, tipicamente su un unico set di dati di test di piccole dimensioni. Questa fase
includerà il confronto con algoritmi esistenti che affrontano lo stesso compito clinico o con risultati
ottenuti direttamente da clinici esperti. In questa fase, non è necessario che gli algoritmi di
intelligenza artificiale siano completamente robusti, poiché l'obiettivo è semplicemente quello di valutare la fattibilità.
I risultati risultanti possono essere divulgati in una pubblicazione scientifica, anche se l'algoritmo
non è dimostrato per l'applicazione clinica in questa fase.

• Fase II – Capacità: in questa fase, l'obiettivo è simulare le condizioni del mondo reale in un ambiente
di laboratorio e valutare e perfezionare l'algoritmo AI di conseguenza per migliorarne le capacità.
La fase può anche essere definita validazione in-silico
(Viceconti et al., 2021) (ovvero utilizzando la simulazione al computer) o studi clinici virtuali (Abadi
et al., 2020). In questa fase, l'affidabilità può essere testata simulando i dati di input e le condizioni
cliniche in cui può essere utilizzato. I test di sicurezza valuteranno la capacità dell'algoritmo di
ridurre al minimo il rischio di danno quando distribuito e sottoposto a situazioni impreviste, che
saranno anche simulate per i test. Inoltre, questa fase dovrebbe essere implementata con gli utenti
finali, in particolare medici e operatori, per valutare i loro comportamenti e il processo decisionale
date le condizioni simulate e gli output dell'algoritmo AI.

• Fase III – Efficacia: in questa fase, la convalida viene spostata nell'ambiente clinico per valutare le
prestazioni del mondo reale e in siti clinici specifici per eseguire le convalide locali. L'obiettivo
principale è confermare che le prestazioni reali dell'algoritmo corrispondano alle sue prestazioni
nell'ambiente di test. Tutti i risultati e il feedback di questa fase dovrebbero essere sfruttati per
aggiornare e ottimizzare l'algoritmo AI, che verrà testato nuovamente nell'ambiente controllato
come nelle fasi precedenti, prima di un altro ciclo di valutazione clinica locale. Questa fase di
valutazione nella clinica può rivelare problemi di controllo della qualità locale e i produttori di IA
dovrebbero collaborare con i siti clinici locali per risolvere i problemi di qualità identificati.

• Fase IV – Durata: in questa fase, il produttore dovrebbe mettere in atto un meccanismo per consentire
la valutazione e il monitoraggio continui delle prestazioni, con l'intento di un miglioramento continuo.
Possono integrare sistemi di monitoraggio o auditing all'interno della loro soluzione AI per rilevare,
correggere e segnalare automaticamente gli errori e per compilare feedback clinici e feedback degli
utenti. Inoltre, a seconda degli errori e dei problemi identificati nel tempo, gli algoritmi di intelligenza
artificiale dovrebbero essere aggiornati e migliorati, ad esempio utilizzando dati di addestramento
aggiuntivi, e quindi testati nuovamente nell'ambiente controllato prima di essere riutilizzati in clinica.

40
Machine Translated by Google

Intelligenza artificiale in sanità

Figura 12 – Esempio di un approccio in più fasi per la valutazione dell'IA medica

I ricercatori di IBM Research hanno proposto una suddivisione alternativa del processo di valutazione traendo
analogie dai settori della scoperta e della sperimentazione di farmaci (Park et al., 2020), come descritto nella
Tabella 3.

Tabella 3 – Estratti del processo di valutazione suddiviso per l'IA medica, basato sui processi
implementati nel settore dello sviluppo dei farmaci (Park et al., 2020)
Fase di test di
Equivalenza In
Procedure Esempi
scoperta di nuovi farmaci
Algoritmo AI

Determinazione delle soglie per


Fase 1:
Ottimizzazione delle bilanciare sensibilità e specificità per un Determinare la dose
Prestazioni
prestazioni dell'algoritmo in silico particolare caso d'uso clinico, test ottimale
tecniche e
Test di usabilità basati su scenari per valutare il Identificare le potenziali tossicità
sicurezza
sovraccarico cognitivo

Riqualificazione e rivalutazione delle


Valutazione controllata
prestazioni del modello con set di dati reali
delle prestazioni/efficacia
più grandi, misurazione dell'efficienza
Fase 2: dell'algoritmo da parte degli Primi test di efficacia
della consegna delle informazioni e
Efficacia ed effetti utenti previsti in ambito medico Identificazione di
integrazione del flusso di lavoro con
collaterali eventi avversi
Progettazione dell'interfaccia utenti rappresentativi, studio pilota
dell'algoritmo predittivo in un contesto
Miglioramento di qualità
clinico

Studio randomizzato per verificare se la


Fase 3: Test clinico
consegna del supporto decisionale basato Sperimentazione clinica
Efficacia Identificazione sull'intelligenza artificiale influisce sugli esiti Identificazione degli eventi avversi
terapeutica degli eventi avversi clinici e/o si traduce in un'eccessiva fiducia degli utenti

Fase 4:
Sorveglianza post- Misurazione della deriva delle Sorveglianza post-
Sicurezza
distribuzione prestazioni algoritmiche marketing
ed efficacia

Sebbene esistano sovrapposizioni tra le due suddivisioni del processo di valutazione medica presentate in
questa sezione (Figura 12 e Tabella 2 – Esempi di elementi prestazionali per gli algoritmi di imaging AI
(da Larson, et. al., 2021)). La prima suddivisione (Figura 12) è incentrata sulla separazione degli ambienti

41
Machine Translated by Google

STOAA | Panel per il futuro della scienza e della tecnologia

e popolazioni in cui viene testato l'algoritmo (piccoli set di dati per dimostrare la fattibilità, ambienti simulati per
testare la robustezza ai cambiamenti contestuali, ambiente clinico per dimostrare l'applicabilità nel mondo reale).
Il secondo approccio (Tabella 2) non separa necessariamente gli ambienti di test (ad esempio, le strutture
mediche sono utilizzate in entrambe le fasi 2 e 3) ma ogni passaggio è più focalizzato su un particolare rischio e
aspetto clinico come sicurezza, efficacia, usabilità ed efficacia.

In entrambi gli approcci di valutazione in più fasi, ciascuna di queste fasi dipende dal completamento con
successo della fase precedente, il che riduce i costi. Ad esempio, è quasi certo che gli algoritmi che non
funzionano bene in un ambiente controllato non funzioneranno bene nel mondo reale. Sebbene richiedano di
essere ulteriormente sviluppati e adottati dalle parti interessate, questi studi di valutazione multifase e sfaccettati
sono promettenti in quanto prendono in considerazione la complessità dell'assistenza sanitaria guidata dall'IA,
che è aggravata da applicazioni dipendenti dall'utente e dal contesto.

4.3.1. Promozione di valutazioni esterne da parte di valutatori terzi


La valutazione delle prestazioni di un modello di intelligenza artificiale con set di dati simili a quelli utilizzati per
sviluppare e addestrare il modello è chiamata convalida interna. Agli albori dell'intelligenza artificiale medica,
questo era l'approccio più riportato per la convalida dell'algoritmo in quanto è facile da implementare. Tuttavia, è
probabile che la convalida interna, anche da parte di sviluppatori e produttori con una cultura della qualità e
buone pratiche di eccellenza nell'IA medica, sia intrinsecamente distorta e sovrastimi le prestazioni, mentre è
limitata nella sua capacità di identificare tutti i rischi associati ai cambiamenti nei dati o nell'ambiente clinico. Uno
studio del 2019 ha esaminato più di 500 documenti di ricerca nel campo dell'AI in radiologia e ha rilevato che
solo il 6% degli algoritmi AI segnalati è stato sottoposto a una valutazione esterna (Kim et al., 2019). Pertanto,
negli ultimi anni molti ricercatori e opinion leader hanno raccomandato di promuovere la valutazione esterna
degli algoritmi di intelligenza artificiale in ambito sanitario (Park & Han, 2018; Larson et al., 2021).

La convalida esterna si riferisce all'uso di set di dati esterni completamente separati per la valutazione degli strumenti di intelligenza artificiale.
I set di dati esterni dovrebbero rappresentare fortemente la variabilità della popolazione e l'utilizzo della soluzione
AI. Tali dati proverranno idealmente da diversi siti clinici e posizioni geografiche per valutare la generalizzabilità
del dato algoritmo AI al di fuori dell'ambiente controllato in cui è stato costruito. Con questo approccio, sarà
possibile, ad esempio, valutare l'algoritmo AI quando variano i parametri tecnici dell'acquisizione dei dati (ad es.
differenze negli scanner di imaging e nei protocolli tra gli ospedali). Inoltre, molti ricercatori hanno raccomandato
l'uso di set di dati di riferimento comuni, acquisiti da popolazioni rappresentative del mondo reale, per la
valutazione esterna e il benchmarking dei modelli di intelligenza artificiale. Questi set di dati di riferimento
possono essere confrontati direttamente con algoritmi simili che sono stati precedentemente valutati con lo
stesso set di dati di riferimento. Ad esempio, nel 2010 il National Cancer Institute negli Stati Uniti ha istituito il
Cancer Imaging Archive (www.cancerimagingarchive.net), che ora comprende un'ampia gamma di raccolte di
imaging del cancro di tutti i tipi di cancro, ampiamente e abitualmente utilizzate per la convalida esterna e il
confronto degli algoritmi di intelligenza artificiale.

Diversi progetti di ricerca sono stati recentemente finanziati dalla Commissione europea per costruire archivi
europei di set di dati di riferimento per l'imaging del cancro, come il progetto EuCanImage
(https://eucanimage.eu). Inoltre, la convalida esterna dovrebbe idealmente essere effettuata utilizzando valutatori
di terze parti per garantire una valutazione obiettiva ed esaustiva dell'algoritmo AI secondo i criteri di prestazione
delineati nella sezione precedente, come l'accuratezza, l'affidabilità, l'equità e l'usabilità. Tali valutatori di terze
parti potrebbero includere organizzazioni di ricerca clinica, laboratori di ricerca o istituzioni indipendenti che
sviluppano e mantengono set di dati standard di riferimento. Tali organizzazioni di test sarebbero specializzate
per consentire i più elevati standard, qualità e obiettività nella valutazione e nel monitoraggio delle soluzioni di IA
nel settore sanitario, con conseguente riduzione dei rischi non rilevati e maggiore fiducia nell'IA medica per la
pratica del mondo reale. Vale la pena notare che DIGITAL EUROPE sta attualmente preparando nuove iniziative
di ricerca per sviluppare strutture di test e sperimentazione (TEF) in Europa, che - una volta istituite - faciliteranno
notevolmente la convalida esterna degli strumenti di intelligenza artificiale medica, in particolare per le aziende.

42
Machine Translated by Google

Intelligenza artificiale in sanità

4.3.2. Rapporti standardizzati e completi della procedura e dei risultati


della valutazione dell'IA
Per migliorare ulteriormente la fiducia e l'usabilità degli strumenti di IA, è essenziale una documentazione e una
comunicazione trasparenti del processo di convalida. Questo tipo di segnalazione faciliterà il processo di valutazione
critica per sviluppatori, ricercatori e altre parti interessate; inoltre, dovrebbe aiutare a replicare l'algoritmo e i risultati
dell'IA, se necessario. Prima dell'uso diffuso dell'IA, i ricercatori avevano già individuato la necessità di linee guida di
reporting standardizzate e complete per i modelli predittivi utilizzati in ambito sanitario, tra cui TRIPOD (Transparent
Reporting of a multivariable forecast model for Individual Prognosis Or Diagnosis) (Collins et al., 2015). La dichiarazione
TRIPOD è stata la prima
pubblicato nel 2015 e poco dopo adottato in generale nella comunità biomedica. TRIPOD fornisce una guida su come
segnalare chiaramente lo sviluppo di un modello predittivo al fine di valutarne il potenziale pregiudizio e l'utilità. (Collins
et al, 2015) Concretamente, e come illustrato nel riquadro 5, la dichiarazione TRIPOD include una lista di controllo di
22 elementi ritenuti essenziali per la segnalazione trasparente di uno studio del modello di previsione.

Riquadro 5 – Elementi essenziali da includere quando si riporta un modello di previsione, secondo TRIPOD

• Titolo, abstract, sfondo e obiettivi.

• Metodi: fonte dei dati, partecipanti, predittori, dimensione del campione, dati mancanti, tipo di
modello di previsione e altre procedure di costruzione del modello, ecc.
• Risultati: partecipanti (numero e caratteristiche), misure di performance, intervalli di confidenza,
aggiornamento del modello, ecc.

• Discussione: limitazioni (es. campione non rappresentativo, dati mancanti), interpretazione (incl.
confronto con studi simili), implicazioni (ad es. potenziale uso clinico).

• Altre informazioni: informazioni supplementari, finanziamento.

Sebbene TRIPOD miri principalmente a migliorare la segnalazione, facilita anche una comprensione e un'analisi più
complete dei modelli di previsione, garantendo che possano essere ulteriormente studiati e utilizzati per guidare la
fornitura di assistenza sanitaria, migliorando così la ricerca riproducibile, la fiducia e la traduzione clinica. Sebbene
molti aspetti della dichiarazione TRIPOD siano intrinsecamente applicabili agli studi sui modelli di previsione che
utilizzano metodi di apprendimento automatico, la sua adozione da parte delle comunità di intelligenza artificiale non è stata elevata.
Possibili ragioni per il basso livello di adozione includono sottili differenze nella terminologia o una percepita mancanza
di rilevanza perché TRIPOD - almeno nella sua definizione originale - si è concentrato su approcci basati su modelli di
previsione basati sulla regressione (e non su quelli basati sull'apprendimento automatico). In risposta a linee guida di
reporting più specifiche per l'IA, è attualmente in fase di sviluppo un'estensione di TRIPOD dedicata ai modelli di
previsione della salute che utilizzano tecniche di apprendimento automatico con il nome di TRIPOD-AI (Collins et al,
2021)1 .

Un altro esempio di linee guida per la segnalazione e la convalida è il lavoro svolto dal consorzio CONSORT
(Consolidated Standards of Reporting Trials), che ha esteso le proprie linee guida per la segnalazione del 2010 per
includere aspetti specifici dell'AI con la dichiarazione CONSORT-AI. Mentre le linee guida originali raccomandavano
di includere elementi come titolo, disegno dello studio, partecipanti, interventi, risultati e dimensione del campione, la
dichiarazione estesa CONSORT-AI propone che i ricercatori "forniscano descrizioni chiare dell'intervento di IA,
comprese le istruzioni e le abilità necessarie per l'uso, l'impostazione in cui l'intervento di IA è integrato, la gestione
degli input e degli output dell'intervento di IA, l'interazione uomo-IA e la fornitura di un'analisi dei casi di errore" (Liu et
al, 2020). Come mostrato nel riquadro 6 (Liu et al, 2020), l'estensione CONSORT-AI enumera nuovi elementi specifici
dell'IA da utilizzare in

1 TREPPIEDE. www.tripod-statement.org

43
Machine Translated by Google

STOAA | Panel per il futuro della scienza e della tecnologia

il processo di rendicontazione, oltre a quelli inclusi nelle linee guida CONSORT originali pubblicate nel 2010.

Riquadro 6 – Elementi di rendicontazione per l'IA medica negli studi clinici, secondo le linee guida CONSORT-AI

• Indicare nel titolo e nell'abstract che l'intervento coinvolge AI e specificarne la tipologia


modello.

• Destinazione d'uso dell'intervento di IA nel contesto del percorso clinico, compreso il suo scopo e gli utenti previsti
(ad esempio, operatori sanitari, pazienti, pubblico).

• Descrizione di come l'intervento di IA è stato integrato nel contesto dello studio, inclusi eventuali
requisiti in loco o fuori sede.

• Versione dell'algoritmo AI utilizzato.

• Descrizione dei dati di input che sono stati acquisiti e selezionati per l'intervento AI.

• Descrizione di qualsiasi interazione uomo-IA nella gestione dei dati di input e livello di
competenze richieste agli utenti.

• Il risultato dell'intervento AI.

• Spiegazione di come i risultati dell'intervento di IA hanno contribuito al processo decisionale o altro


elementi della pratica clinica.

• Risultati di qualsiasi analisi degli errori di prestazione e modalità di identificazione degli errori, dove
applicabile.

• Informazioni su come è possibile accedere all'intervento AI e/o al suo codice, incluso qualsiasi
restrizioni all'accesso o al riutilizzo.

I ricercatori della Stanford University hanno proposto una nuova serie di standard per la segnalazione delle
soluzioni di intelligenza artificiale nel settore sanitario, intitolata MINMAR (MINimum Information for Medical AI
Reporting) (Hernandez Boussard et al., 2020). Gli standard MINMAR descrivono le informazioni minime necessarie
per comprendere le previsioni previste, le popolazioni target, l'architettura del modello, i processi di valutazione e
i pregiudizi nascosti. Le linee guida MINMAR sono progettate specificamente per l'IA medica e comprendono
elementi di segnalazione in quattro categorie principali, come mostrato nella Tabella 4.

Tabella 4 – Elementi di segnalazione dalle linee guida di segnalazione MINMAR


Elemento Descrizione

1. Popolazione e ambiente

Popolazione Popolazione da cui è stato estratto il campione dello studio

Ambiente di studio L'ambiente in cui è stato condotto lo studio.

Fonte di dati La fonte da cui sono stati raccolti i dati

Selezione di coorte Criteri di esclusione/inclusione

2. Caratteristiche demografiche del paziente

Età Età dei pazienti inclusi nello studio

Sesso Ripartizione per sesso della coorte di studio

Suddivisione per razza/etnia dei pazienti inclusi nello studio


Razza/etnia

Una misura o una misura proxy dello stato socioeconomico dei


Stato socioeconomico
pazienti inclusi nello studio

44
Machine Translated by Google

Intelligenza artificiale in sanità

3. Proprietà del modello

Compito modello Classificazione o previsione

Architettura del modello Tipo di algoritmo: machine learning, deep learning, ecc.

Come sono stati suddivisi i dati per l'addestramento, il test e la


Divisione dei dati
convalida

Standard aureo Dati etichettati usati per addestrare e testare il modello

Caratteristiche Elenco delle variabili utilizzate/selezionate nel modello AI

Come è stata affrontata la mancanza: segnalata, imputata o corretta


Mancanza

Ottimizzazione Ottimizzazione del modello o del parametro applicata

Validazione del modello interno Studio convalida interna

Convalida del modello esterno Convalida esterna utilizzando i dati di un'altra impostazione

Trasparenza Modalità di condivisione del codice e dei dati con la community

Tale modello di reporting per la valutazione medica dell'IA promuoverà la trasparenza, la completezza
e la fiducia, includendo tutte le informazioni chiave dagli studi di valutazione dell'IA in un unico
documento dettagliato, nonché assistendo editori editoriali, sviluppatori di AI, clinici e ricercatori nella
comprensione, interpretazione e valutazione critica della qualità del progetto, della convalida e dei
risultati dello studio sull'IA.

45
Machine Translated by Google

STOAA | Panel per il futuro della scienza e della tecnologia

5. Opzioni politiche
Questa sezione descrive sette opzioni politiche suggerite per sviluppare, valutare, implementare e sfruttare al meglio
soluzioni di IA tecnicamente, clinicamente ed eticamente valide nella futura assistenza sanitaria (Figura 13).

Figura 13 – Riepilogo delle opzioni politiche suggerite in questo rapporto

5.1. Estendere i quadri normativi e i codici di condotta dell'IA per


affrontare i rischi e i requisiti specifici dell'assistenza sanitaria
Come descritto nella sezione 4.1, gli attuali dispositivi medici di IA sono regolati dai regolamenti MDR e IVDR,
introdotti nel 2017. Inoltre, nel 2021 la Commissione europea (CE)
ha proposto un nuovo regolamento per l'IA che prevede nuovi requisiti e obblighi per le applicazioni ad alto rischio,
comprese le tecnologie mediche di IA, come l'istituzione e l'attuazione di sistemi di gestione della qualità nelle
organizzazioni, la valutazione della conformità e l'eventuale rivalutazione dei sistemi di IA (in caso di modifiche
sostanziali), nonché il monitoraggio successivo all'immissione sul mercato.

Sebbene la nuova proposta sia stata elaborata per le tecnologie di intelligenza artificiale in generale, il nuovo quadro
considera gli strumenti di intelligenza artificiale medica ad alto rischio, richiedendo loro di essere sottoposti a un
maggiore controllo. Tuttavia, i requisiti sono presentati in modo generico, mentre - come si vede in questo rapporto -
l'IA nel settore sanitario deve affrontare sfide e rischi tecnici, clinici e socio-etici specifici e ad alto rischio.

È quindi importante che i quadri normativi e i codici di condotta siano estesi e messi in pratica per l'IA medica (come
descritto nelle sezioni 4.2 e 4.3). La necessità di aggiornare le approvazioni normative dei dispositivi medici basati
sull'intelligenza artificiale è stata espressa in tutto il mondo, come negli Stati Uniti
(Harvey & Gowda, 2020; Allen, 2019), Giappone (Chinzeiet al., 2018; Ota et al., 2020) e Cina (Roberts

46
Machine Translated by Google

Intelligenza artificiale in sanità

et al., 2020). In particolare, nel 2021 la Food & Drug Administration (FDA) statunitense ha pubblicato il software di
intelligenza artificiale e apprendimento automatico (AI/ML) come piano d'azione per dispositivi medici (FDA, 2021),
che richiede normative su misura per l'IA medica, buone pratiche di apprendimento automatico e approcci incentrati
sul paziente.

Per adattare i quadri esistenti e le pratiche di IA al campo medico, la valutazione del rischio multiforme (sezione
4.2) dovrebbe essere parte integrante del processo di sviluppo e certificazione dell'IA medica.
Inoltre, la valutazione del rischio deve essere specifica del dominio, poiché i rischi e i vincoli clinici, sociali ed etici
differiscono tra, ad esempio, radiologia, chirurgia, genomica, salute mentale, salute dei bambini e assistenza
domiciliare.

La convalida delle tecnologie di IA medica dovrebbe essere armonizzata e rafforzata per valutare e identificare i
rischi e i limiti multiformi valutando non solo l'accuratezza e la robustezza del modello
ma anche correttezza algoritmica, sicurezza clinica, accettazione clinica, trasparenza e tracciabilità.

Una proposta importante (evidenziata nella sezione 4.3) per migliorare la convalida e la certificazione dell'IA medica
è l'introduzione e la generalizzazione della convalida esterna di terze parti da parte di entità indipendenti che
saranno specializzate in questo processo. Ciò consentirà una convalida più obiettiva ed esperta degli strumenti di
intelligenza artificiale medica in un modo che tenga sistematicamente conto della variabilità nelle pratiche cliniche
del mondo reale e nei contesti socio-etici.

5.2. Promuovi il coinvolgimento di più parti interessate e la co-creazione


durante l'intero ciclo di vita degli algoritmi di intelligenza artificiale medica
Per la futura accettabilità e implementazione degli strumenti di intelligenza artificiale medica nel mondo reale, molte
parti interessate oltre agli sviluppatori di intelligenza artificiale, come medici, pazienti, scienziati sociali, dirigenti
sanitari e regolatori dell'IA, svolgeranno un ruolo importante. Pertanto, sono necessari nuovi approcci per
promuovere l'impegno inclusivo e multilaterale nell'IA medica e garantire che gli strumenti di intelligenza artificiale
siano progettati, convalidati e implementati in pieno allineamento con la diversità delle esigenze del mondo reale e
contesti.

Pertanto, i futuri algoritmi di intelligenza artificiale dovrebbero essere sviluppati dai produttori di intelligenza artificiale
sulla base della co-creazione (Leone et al., 2021), ovvero attraverso collaborazioni forti e continue tra gli sviluppatori
di intelligenza artificiale e gli utenti finali clinici, nonché con altri esperti di rilevanza come esperti di etica biomedica.
Queste collaborazioni dovrebbero essere presenti in tutte le fasi, dalla progettazione e sviluppo della soluzione AI
alla sua convalida e implementazione (Filice & Ratwani, 2020).

L'integrazione di approcci incentrati sull'uomo e sull'utente durante l'intero processo di sviluppo dell'IA consentirà di
progettare algoritmi di IA che riflettano meglio le esigenze e le culture degli operatori sanitari, ma anche di
identificare e affrontare i potenziali rischi in una fase iniziale. Ciò sposterà l'attenzione verso l'ottimizzazione delle
prestazioni cliniche degli utenti finali e dei benefici per la salute dei cittadini, tenendo conto dei requisiti sociali, etici
e legali esistenti.

Attraverso un forte coinvolgimento degli utenti, le future implementazioni degli algoritmi di intelligenza artificiale
medica prenderanno in stretta considerazione le interazioni previste tra gli utenti finali e gli algoritmi (altrimenti
denominate interazione uomo-computer) (Xu, 2019). Le interfacce visive dovrebbero essere progettate con cura in
base ai requisiti degli utenti finali clinici per consentire visualizzazioni di spiegazioni incentrate sull'uomo e
clinicamente significative per le previsioni del modello di apprendimento automatico nel settore sanitario
(Barda et al., 2020). Ciò consentirà di ridurre gli errori umani e migliorerà la spiegabilità e l'accettazione delle
previsioni e delle decisioni guidate dall'intelligenza artificiale.

Infine, il coinvolgimento multi-stakeholder e la co-creazione affronteranno questioni sociali specifiche relative


all'equità, all'uguaglianza e all'equità, che sono questioni specifiche dell'applicazione che richiedono una
comprensione dei compiti clinici, dei possibili fattori di confusione e delle differenze di gruppo rilevanti; quindi continuo

47
Machine Translated by Google

STOAA | Panel per il futuro della scienza e della tecnologia

la collaborazione tra esperti di dominio, operatori sanitari, scienziati sociali e membri della comunità del mondo reale,
in particolare da gruppi sottorappresentati, è fondamentale.

5.3. Creare un passaporto AI e meccanismi di tracciabilità per una


maggiore trasparenza e fiducia nell'IA medica
Sono necessari nuovi approcci e meccanismi per migliorare la trasparenza degli algoritmi di intelligenza artificiale
durante tutto il loro ciclo di vita. Per essere in grado di comprendere i dettagli di ciò che è accaduto quando qualcosa
va storto nell'implementazione clinica dell'IA medica, la trasparenza è essenziale, inclusa ma non limitata alla
documentazione dell'intero processo di sviluppo dell'IA; questo tipo di documentazione e trasparenza aiuta a eliminare
potenziali ambiguità e mancanza di responsabilità (Felzmann et al, 2020).

Un'opzione è che gli organismi di regolamentazione dell'IA medica introducano un "passaporto AI" per la descrizione
standardizzata e la tracciabilità degli strumenti di IA medica (vedere l'illustrazione nella figura 14). Tale passaporto
dovrebbe descrivere e monitorare le informazioni chiave sulla tecnologia AI, coprendo almeno cinque categorie di
informazioni:

1. Informazioni relative al modello (ad es. proprietari del modello, sviluppatori e revisori, usi clinici previsti,
licenze applicabili, dettagli algoritmici, iperparametri, presupposti e requisiti chiave).

2. Informazioni relative ai dati (dati di addestramento vs. dati di test, tipi di dati ad es. imaging, dati reali vs.
set di dati simulati, origine dei dati).

3. Informazioni relative alla valutazione (accuratezza del modello, robustezza, distorsioni, limitazioni e
casi estremi).

4. Informazioni relative all'utilizzo (ad es. distribuzioni statistiche, (dis)accordi con


clinici, guasti identificati, utilizzo della memoria, ecc.).

5. Informazioni relative alla manutenzione (ultimi aggiornamenti, versione del software, ultima valutazione
periodica, date, ecc.).

Il passaporto AI dovrebbe essere standardizzato per consentire una tracciabilità coerente tra paesi e organizzazioni
sanitarie.

48
Machine Translated by Google

Intelligenza artificiale in sanità

Figura 14 – Esempio di un possibile passaporto per l'IA che può essere utilizzato per migliorare la tracciabilità e la
trasparenza nell'IA medica, documentando tutti i dettagli chiave sugli strumenti di intelligenza artificiale,
la loro destinazione d'uso, i dettagli del modello e dei dati, i risultati della valutazione e le informazioni derivanti dal
monitoraggio e dall'audit continui

Inoltre, l'intelligenza artificiale medica è una tecnologia altamente dinamica con nuovi dati, attrezzature e utenti introdotti
regolarmente nei suoi flussi di lavoro. È chiaro quindi che il concetto di tracciabilità deve andare oltre la mera
documentazione del processo di sviluppo o la fase di test del modello AI; invece, dovrebbe comprendere anche il
processo di monitoraggio e mantenimento del modello o sistema di IA nel mondo reale, monitorando continuamente
come funziona dopo l'implementazione nella pratica clinica e identificando potenziali errori o cambiamenti nelle
prestazioni (Lekadir et al, 2022).

Pertanto, è importante che gli algoritmi siano sviluppati insieme alle relative interfacce live
che saranno destinati alla sorveglianza continua e all'audit degli strumenti di intelligenza artificiale dopo la loro
implementazione nel rispettivo ambiente clinico. Tale strumento di monitoraggio dovrebbe includere funzionalità di facile
utilizzo per il controllo della qualità e il rilevamento di errori e casi estremi, un meccanismo human-in-the-loop per
consentire la supervisione e il feedback umano, un sistema di avvisi per informare i medici di sospette deviazioni da
stati precedenti o degrado delle prestazioni (ad esempio quando vengono introdotte nuove apparecchiature o protocolli),
nonché un sistema di valutazione periodica che può essere configurato per indicare set di dati di test di riferimento,
nonché la periodicità delle valutazioni (ad esempio mensile o trimestrale).

5.4. Sviluppare quadri per definire meglio la responsabilità e


monitorare le responsabilità nell'IA medica
La responsabilità continua a essere una questione urgente nel campo dell'IA, in particolare nelle aree ad alto rischio
dell'IA medica. È una questione particolarmente importante quando si considerano situazioni in cui un'intelligenza artificiale
lo strumento sanitario utilizzato in contesti clinici reali fallisce, produce errori o provoca effetti collaterali imprevisti (Geis
et al, 2019). Sono necessari quadri e meccanismi per assegnare adeguatamente la responsabilità a tutti gli attori nel
flusso di lavoro dell'IA nella pratica medica, inclusi i produttori, fornendo così incentivi per l'applicazione di tutte le
misure e le migliori pratiche per ridurre al minimo gli errori e i danni

49
Machine Translated by Google

STOAA | Panel per il futuro della scienza e della tecnologia

il paziente. Tali aspettative sono già parte integrante dello sviluppo, della valutazione e della commercializzazione
di medicinali, vaccini e attrezzature mediche e devono essere estese ai futuri prodotti di intelligenza artificiale
medica.

Soprattutto, sono necessari quadri giuridici unificati per definire responsabilità e responsabilità e applicare le
conseguenze rilevanti nell'IA medica in tutta Europa e oltre. Delle normative esistenti, il GDPR offre un duplice
approccio alla responsabilità algoritmica: affrontando la questione dal punto di vista dei diritti individuali da un lato
e dei quadri normativi sistemici dall'altro (Kaminski & Malgieri, 2019). In particolare, il GDPR stabilisce la trasparenza
come principio chiave per il trattamento dei dati e la collega alla liceità (art. 5 par. 1(a) GDPR), entrambi elementi
importanti del principio di responsabilità (art. 5 par. 2 GDPR).

Tuttavia, mentre il GDPR è molto variabile in termini di definizione dei diritti alla privacy dei dati e di spiegazione,
alcuni ricercatori del settore hanno sottolineato che non è di per sé sufficiente in termini di definizione della
responsabilità algoritmica nell'IA medica (Barocas, 2019). C'è una lacuna legale per la responsabilità dell'IA medica
che resta da affrontare; di fronte a questa sfida, leader esperti nel settore hanno raccomandato l'istituzione di un
nuovo e unico organismo di regolamentazione per l'IA (Tuut, 2017; Koene et al., 2019).

Si prevede che nel 2022 la CE proporrà misure a livello dell'UE per adattare i quadri di responsabilità esistenti alle
sfide dell'IA al fine di garantire che le vittime che subiscono danni alla vita, alla salute o alla proprietà a causa di
una tecnologia di IA abbiano accesso allo stesso risarcimento delle vittime di altre tecnologie (Comunicazione al
Parlamento UE, 2021). Ciò potrebbe includere una revisione della direttiva sulla responsabilità per danno da prodotti
difettosi (direttiva del Consiglio, 1985) e potrebbe richiedere adeguamenti settoriali come per l'IA nell'assistenza
sanitaria.

Un modo importante per aumentare la responsabilità degli strumenti di intelligenza artificiale nel settore sanitario è
attraverso audit periodici e valutazioni del rischio, che possono essere utilizzati per valutare quanta supervisione
normativa potrebbe essere necessaria a un determinato strumento di intelligenza artificiale (Kaminski & Malgieri,
2019; Reisman et al., 2018). A tal fine, le valutazioni devono essere condotte attraverso l'intera pipeline dell'IA,
dalla raccolta dei dati, allo sviluppo, alle fasi precliniche, all'implementazione, ma anche quando gli strumenti sono
in uso. Le future soluzioni di IA dovrebbero mantenere un archivio delle decisioni basate sull'IA e disporre di un
meccanismo per il monitoraggio e la tracciabilità continui nel tempo, come descritto nella sezione precedente. Gli
audit per valutare l'equità, la trasparenza, l'accuratezza e la sicurezza potrebbero essere utilizzati per mantenere i
processi decisionali dell'IA allo stesso standard dei processi umani (Caplan et al., 2018). Mentre alcune aziende e
agenzie fanno molto affidamento sui processi di audit interno, numerosi ricercatori e organizzazioni per i diritti civili
richiedono che questi audit siano svolti esternamente da organizzazioni di audit indipendenti.

5.5. Introdurre programmi educativi per migliorare le competenze


degli operatori sanitari e l'alfabetizzazione del pubblico in generale
Per aumentare l'adozione e ridurre al minimo gli errori, i futuri professionisti medici devono essere adeguatamente
formati su questa nuova tecnologia, compresi i suoi vantaggi per migliorare l'assistenza, la qualità e l'accesso
all'assistenza sanitaria, nonché i suoi limiti e rischi (Paranjape et al., 2019). Quindi, è il momento di aggiornare
programmi educativi in medicina e aumentare la loro interdisciplinarietà, con lezioni dedicate e sessioni pratiche
che integrano perfettamente le implicazioni dell'IA medica nella futura pratica clinica (McCoy et al., 2020; Rampton
et al., 2020).

Inoltre, è urgente aumentare l'alfabetizzazione dell'IA del pubblico in generale per responsabilizzare i cittadini e i
pazienti, che coglieranno meglio i vantaggi degli strumenti di intelligenza artificiale medica emergenti, riducendo al
minimo il potenziale rischio di uso improprio degli strumenti di intelligenza artificiale, in particolare durante il
monitoraggio remoto e la gestione delle cure. Alcuni paesi hanno già investito nell'offerta di corsi gratuiti di
alfabetizzazione pubblica sull'IA, come il corso finlandese "Elements of AI" gestito dall'Università di Helsinki (www.elementsofai.com).

50
Machine Translated by Google

Intelligenza artificiale in sanità

5.6. Promuovere ulteriori ricerche sulla robustezza clinica, etica


e tecnica nell'IA medica
Nonostante i grandi progressi degli ultimi anni nell'intelligenza artificiale e nell'apprendimento automatico, nonché nelle
loro applicazioni alla medicina e all'assistenza sanitaria, la moltitudine di rischi discussi in questo rapporto richiede
ulteriori ricerche e sviluppi per realizzare la piena promessa dell'intelligenza artificiale medica, affrontando al contempo
i limiti clinici, socio-etici e tecnici esistenti. Esempi di aree per la ricerca futura includono spiegabilità e interpretabilità,
stima e mitigazione dei pregiudizi, nonché IA sicura e che tutela la privacy.

L'intelligenza artificiale spiegabile è un'area di ricerca che sta studiando una nuova generazione di algoritmi di
intelligenza artificiale che possono essere compresi dagli esseri umani, ad esempio da medici e pazienti nell'IA medica.
Ha suscitato molto interesse negli ultimi anni e vari approcci sono stati sviluppati e testati. Tuttavia, l'intelligenza
artificiale spiegabile nell'assistenza sanitaria rimane molto impegnativa a causa della complessità e della variabilità dei
dati biomedici e clinici, e i metodi esistenti devono ancora trovare la loro strada nella pratica clinica. Per migliorare il
loro potenziale, è importante valutare e garantire che i metodi di spiegabilità producano spiegazioni clinicamente
significative e accettate dagli utenti finali. C'è bisogno di approcci interdisciplinari durante gli sviluppi dell'IA che inizino
esaminando le esigenze dei medici e comprendendo i tipi di spiegazioni (metodi visivi vs. quantitativi) che meglio si
adattano alle loro esigenze e allo specifico compito clinico.

Per mitigare esplicitamente la presenza di distorsioni indesiderate nei dati, sono già stati adottati metodi
indagati (Li & Vasconcelos, 2019; Zhang et al., 2018) e sono già stati pubblicati alcuni toolkit open-source, come quelli
di IBM (AI Fairness 360) e Microsoft (Fairlearn (Bird et al., 2020)).
Tuttavia, l'individuazione di pregiudizi, in particolare impliciti e nascosti, rimane in larga misura un problema aperto. I
pregiudizi qualitativi, come i pregiudizi cognitivi dei medici che generano, interpretano o annotano i dati, richiedono una
ricerca multidisciplinare e una maggiore diversità nello sviluppo dell'IA, nell'assistenza sanitaria e nei team politici per
mitigare i pregiudizi e rafforzare l'equità degli algoritmi di intelligenza artificiale medica.

C'è anche bisogno di ulteriori ricerche per sviluppare metodi di adattamento che garantiscano un alto livello di
generalizzabilità dei futuri strumenti di intelligenza artificiale tra gruppi di popolazione, centri clinici e posizioni
geografiche. Inoltre, è importante sviluppare nuove piattaforme di convalida in grado di valutare in modo affidabile gli
algoritmi di intelligenza artificiale per l'accuratezza ma anche per l'equità rispetto a sesso/genere, età, etnia e razza,
stato socioeconomico e altre categorie sociodemografiche.

Inoltre, le future soluzioni di intelligenza artificiale per l'assistenza sanitaria dovrebbero essere implementate integrando
la stima dell'incertezza, un campo di ricerca relativamente nuovo che mira a fornire ai medici indicazioni clinicamente
utili sul grado di fiducia nelle previsioni dell'IA (Kompa et al., 2021). Idealmente, il medico dovrebbe ricevere avvisi/
avvisi quando l'incertezza per determinate previsioni è elevata. In contesti futuri, il sistema di intelligenza artificiale
potrebbe fornire informazioni sulla causa dell'elevata incertezza (ad es. scansioni di immagini di bassa qualità, prove
insufficienti nei dati) e persino consigliare i medici sulla linea d'azione necessaria per migliorare le previsioni dell'IA (ad
es. inclusione di ulteriori test di laboratorio e predittori, nuova scansione del paziente).

Infine, gli attuali attacchi informatici alle tecnologie mediche di intelligenza artificiale rimangono difficili da rilevare,
poiché gli strumenti stessi potrebbero continuare a funzionare correttamente, ma le conclusioni che il sistema di
intelligenza artificiale fornirà con sicurezza saranno errate. Sono necessarie ulteriori ricerche per sviluppare, convalidare
e distribuire strumenti di intelligenza artificiale medica in grado di proteggersi dalla privacy e dai rischi per la sicurezza.
Ciò si tradurrà in una nuova generazione di algoritmi di intelligenza artificiale che possono essere implementati in
modo affidabile e utilizzati nel loro ambiente reale con la massima resilienza e sicurezza.

51
Machine Translated by Google

STOAA | Panel per il futuro della scienza e della tecnologia

5.7. Attuare una strategia per ridurre il divario europeo nell'IA


medica
Sebbene l'UE abbia effettuato investimenti significativi nell'IA negli ultimi anni, persistono disuguaglianze tra
i diversi paesi europei quando si tratta di progressi nel campo dell'IA (Caradaica, 2020).
Il divario dell'IA, in particolare tra le regioni occidentali e orientali del continente, può essere spiegato da
differenze strutturali nei programmi di ricerca e nelle capacità tecnologiche, nonché dai diversi livelli di
investimenti del settore pubblico e privato (Quaglio, et al., 2020B).

Le disparità nello sviluppo e nell'attuazione dell'IA tra i paesi dell'UE sono particolarmente marcate nell'IA
medica, poiché gli sviluppi e le innovazioni in questo campo dipendono fortemente dall'accesso a grandi
database di dati biomedici ben curati e dalle capacità tecnologiche. Allo stesso tempo, queste disparità
nell'IA possono esacerbare le disuguaglianze e le disparità sanitarie esistenti nell'UE; ad esempio, gli studi
hanno dimostrato che esiste un divario tra l'Europa orientale e occidentale nell'aspettativa di vita, nella
mortalità materna e in altri indicatori di salute della popolazione
(Forster, 2018; Banca mondiale, 2019).

In questo contesto, gli Stati membri dell'UE, in particolare quelli dell'Europa orientale, potrebbero sviluppare
programmi specifici per sostenere l'IA in salute. Questi dovrebbero includere azioni concrete per rafforzare
le capacità tecnologiche, di ricerca e industriali dei paesi emergenti dell'UE nel campo dell'IA per l'assistenza
sanitaria. In particolare, i progetti infrastrutturali dovrebbero essere stabiliti dagli Stati membri che dispongono
di infrastrutture di ricerca e disponibilità di dati limitate. Ciò creerebbe e rafforzerebbe le capacità tanto
necessarie nella condivisione, archiviazione, conservazione e sicurezza dei dati biomedici e sanitari in tutta l'UE
(ECRIN, 2019). Dovrebbero essere istituiti altri programmi per aumentare le capacità tecnologiche, cliniche
e industriali di diversi paesi europei per lo sviluppo, la sperimentazione e la diffusione di nuovi strumenti di
intelligenza artificiale in medicina e assistenza sanitaria, compresi il calcolo ad alte prestazioni, i servizi
cloud aperti, le strutture per i test clinici e gli appalti pre-commerciali.

La Commissione europea potrebbe attuare specifici programmi di coordinamento e sostegno delle attività
realizzate in questo settore da diversi Stati membri, sostenendo così l'attuazione di orientamenti e approcci
comuni. Tale coordinamento dovrebbe garantire lo sviluppo di uno spazio europeo dei dati sanitari inclusivo
(EHDS), che tenga in stretta considerazione le sfide nazionali e regionali in tutta Europa (Marschang, 2021).
Analogamente, i programmi esistenti incentrati sull'istruzione, come le reti di formazione Marie-Curie,
potrebbero essere rafforzati per migliorare le capacità di formazione e il capitale umano nell'IA medica, in
particolare nei paesi emergenti dell'UE.

Infine, le disparità esistenti nell'IA medica tra i diversi paesi europei - e in particolare tra l'Europa orientale e
occidentale - riflettono anche le più ampie disuguaglianze sociali, economiche e sanitarie nelle diverse
regioni d'Europa. La questione della riduzione del divario europeo nell'IA medica è quella che richiede un
approccio che vada oltre a concentrarsi esclusivamente sui campi della medicina e/o sui campi dell'IA e
comprenda invece azioni politiche che affronteranno le questioni più ampie della disuguaglianza sistemica
nella società europea.

52
Machine Translated by Google

Intelligenza artificiale in sanità

Riferimenti
Abadi , E. , Segars , WP , Tsui , BM , Kinahan , PE , Bottenus , N. , Frangi , AF , Maidment , A. , Lo , J. and Samei , E. .

Abdi J, Al-Hindawi A, Ng T, Vizcaychipi MP. 'Scoping review sull'uso della tecnologia robotica socialmente assistita
nell'assistenza agli anziani', BMJ Open. 2018;8(2):e018815.

Abràmoff, MD, Lavin, PT, Birch, M., Shah, N. e Folk, JC. "Prova fondamentale di un sistema diagnostico autonomo basato
sull'intelligenza artificiale per il rilevamento della retinopatia diabetica negli uffici di assistenza primaria", medicina digitale NPJ,
1(1), pp.1-8., 2018

Abràmoff, MD, Tobey, D. e Char, DS "Lezioni apprese sull'IA autonoma: trovare un percorso sicuro, efficace ed etico attraverso
il processo di sviluppo", American journal of ophthalmology, 214, pp.134-142, 2020

Adamson, AS e Smith, A., 'Machine learning and health care disparities in dermatologia' JAMA dermatologia, 154(11),
pp.1247-1248, 2018.

Adedinsewo D, Carter RE, Attia Z, Johnson P, Kashou AH, Dugan JL, et al. "Algoritmo ECG abilitato all'intelligenza artificiale
per identificare i pazienti con disfunzione sistolica ventricolare sinistra che si presentano al pronto soccorso con dispnea". Circ
Aritmia Elettrofisiolo.;13(8), 2020

Adhikari L, Ozrazgat-Baslanti T, Ruppert M, Madushani RWMA, Paliwal S, Hashemighouchani H, et al.


"Modelli predittivi migliorati per il danno renale acuto con IDEA: analisi integrata dei dati intraoperatori"
PLoS One. 2019;14(4).

Ahn J, Connell A, Simonetto D, Hughes C e Shah VH. "Applicazione dell'intelligenza artificiale per la diagnosi e il trattamento
delle malattie del fegato", Epatologia. 2021;73(6):2546-2563.

Alder, S. "AI Company ha esposto 2,5 milioni di cartelle cliniche su Internet", HIPPA Journal.
21 agosto 2020.

Allen M, Pearn K, Monks T, Bray BD, Everson R, Salmon A, James M, Stein K. "Gli audit clinici possono essere migliorati dalla
simulazione del percorso e dall'apprendimento automatico?" Un esempio dal percorso dell'ictus acuto', BMJ Open.
2019;9(9):e028296.

Allen, B., "Il ruolo della FDA nel garantire la sicurezza e l'efficacia di software e dispositivi di intelligenza artificiale", Journal of
the American College of Radiology, 16(2), pp.208-210, 2019.

Almirall, D., Nahum-Shani, I., Sherwood, NE e Murphy, SA, "Introduzione ai progetti SMART per lo sviluppo di interventi
adattivi: con applicazione alla ricerca sulla perdita di peso", Medicina comportamentale traslazionale, 2014, 4(3), pp.260-274.

Alsharqi M, Woodward WJ, Mumith JA, Markham DC, Upton R, Leeson P. "Intelligenza artificiale ed ecocardiografia", Echo
Res Pract. 2018;5(4):115–25.

Aminololama-Shakeri S, Lopez E. "La relazione medico-paziente con l'intelligenza artificiale", American Journal of
Roentgenology. 2019;202(2)

Andrew D Selbst, Julia Powles., "Informazioni significative e diritto alla spiegazione", Legge internazionale sulla privacy dei
dati, volume 7, numero 4, pagine 233–242, 2017

Angus DC. "Test clinici randomizzati di intelligenza artificiale", JAMA. 323(11):1043-1045, 2020.

Arora A. 'Concettualizzare l'intelligenza artificiale come innovazione sanitaria digitale: un'introduzione


Recensione', Med Devices (Auckl). 3:223–230. doi: 10.2147/MDER.S262590, 2020.

53
Machine Translated by Google

STOAA | Panel per il futuro della scienza e della tecnologia

Attia ZI, Friedman PA, Noseworthy PA, Lopez-Jimenez F, Ladewig DJ, Satam G, et al. "Stima dell'età e del sesso
utilizzando l'intelligenza artificiale da ECG standard a 12 derivazioni", Circ Arrhythmia Electrophysiol. 12(9), 2019

Attia ZI, Noseworthy PA, Lopez-Jimenez F, Asirvatham SJ, Deshmukh AJ, Gersh BJ, et al. "Un algoritmo ECG abilitato
all'intelligenza artificiale per l'identificazione di pazienti con fibrillazione atriale durante il ritmo sinusale: un'analisi
retrospettiva della previsione dei risultati", Lancet. 394(10201):861–7, 2019.

Azzi, S.; Gagnon, S.; Ramírez, A.; Richards, G. 'Applicazioni sanitarie di intelligenza artificiale e analisi: una revisione
Struttura',2020.
e un'applicazione proposta. 6553. https://doi.org/10.3390/app10186553, Sci., 10,

Baetan, R., Spasova, S., Vanhercke, B., Coster, S., Inequalities in access to healthcare: A study of national policies,
Commissione europea, 2018.

Bandivadekar, SS, "Farmacie online: minacce e regolamenti globali", AAYAM: AKGIM Journal of Management, 10(1),
pp.36-42, 2020.

Barda, AJ, Horvat, CM e Hochheiser, H., "Un quadro di ricerca qualitativo per la progettazione di display centrati
sull'utente di spiegazioni per le previsioni del modello di apprendimento automatico nell'assistenza sanitaria.", BMC
informatica medica e processo decisionale, 20(1), pp.1-16, 2020.

Barocas, S. Implicazioni legali e politiche dell'interpretazione del modello. This Week in Machine Learning and AI
(TWiMLAI), gennaio 2019. https://twimlai.com/twiml-talk-219-legal-and-policy-implications-of-model interpretability-
with-solon-barocas/.

Barocas, S., Hardt, M. e Narayanan, A., 'Fairness in machine learning', Nips tutorial, 1, p.2, 2017.

BBC, "Il test dell'app Google DeepMind NHS ha violato la legge sulla privacy del Regno Unito", BBC News, 3 luglio 2017.

Bera K, Schalper KA, Rimm DL, Velcheti V, Madabhushi A. Intelligenza artificiale nella patologia digitale: nuovi
strumenti per la diagnosi e l'oncologia di precisione. Nat Rev Clin Oncol. 2019;16(11):703-715.

Berlyand Y, Raja AS, Dorner SC, et al. Come l'intelligenza artificiale potrebbe trasformare le operazioni del pronto
soccorso. Am J Emerg Med. 2018;36(8):1515-1517.

Bird, S., Dudík, M., Edgar, R., Horn, B., Lutz, R., Milan, V., Sameki, M., Wallach, H. e Walker, K., "Fairlearn: un toolkit
per valutare e migliorare l'equità nell'IA", Microsoft, Tech. Rep. MSR-TR-2020-32, 2020.

Birnbaum ML, Ernala SK, Rizvi AF, Arenare E, R Van Meter A, De Choudhury M, Kane JM. 'Rilevare la ricaduta nei
giovani con disturbi psicotici utilizzando dati digitali generati dal paziente e forniti dal paziente da
Facebook', NPJ Schizophr.;5(1):17, 2019.

Boniolo F, Dorigatti E, Ohnmacht AJ, Saur D, Schubert B, Menden MP. "L'intelligenza artificiale nella prima scoperta
di farmaci che consente la medicina di precisione", Expert Opin Drug Discov:1-17, 2021.

Campello, V. et al. "Segmentazione cardiaca multicentrica, multivendor e multimalattia: la sfida M&Ms". Calcolo delle
immagini mediche e intervento assistito da computer, 2020.

L'archivio di imaging del cancro. www.cancerimagingarchive.net, accesso a novembre 2021.

Caplan, R., Donovan, J., Hanson, L. e Matthews, J., Responsabilità algoritmica: un primer. Dati e società, 18, 2018.

Caradaica, M., 'Intelligenza artificiale e disuguaglianza nell'Unione europea. Europolity-Continuity and Change in
European Governance', 2020, 14(1), pp.5-31.

Challen, R., Denny, J., Pitt, M., Gompels, L., Edwards, T. e Tsaneva-Atanasova, K., 2019. 'Intelligenza artificiale, bias
e sicurezza clinica', BMJ Quality & Safety, 28(3), pp.231-237.

54
Machine Translated by Google

Intelligenza artificiale in sanità

Chaudhuri S, Long A, Zhang H, Monaghan C, Larkin JW, Kotanko P, et al. "Applicazioni abilitate all'intelligenza artificiale
nelle malattie renali", Semin Dial. 34:5–16, 2021.

Chekroud AM, Zotti RJ, Shehzad Z, Gueorguieva R, Johnson MK, Trivedi MH, Cannon TD, KrystalJH, Corlett PR.
"Predizione incrociata dell'esito del trattamento nella depressione: un approccio di apprendimento automatico", Lancet
Psychiatry.;3(3):243-50, 2016.

Chi AC, Katabi N, Chen HS, Cheng YSL. Variazione interosservatore tra i patologi nella valutazione dell'invasione
perineurale per il carcinoma a cellule squamose orale. Testa Collo Pathol. 10, 451–464, 2016.

Chinzei, K., Shimizu, A., Mori, K., Harada, K., Takeda, H., Hashizume, M., Ishizuka, M., Kato, N., Kawamori, R., Kyo, S. e
Nagata, K., 'Regulatory science on AI-based medical devices and systems', Advanced Biomedical Engineering, 7,
pp.118-123, 2018.

Chung Y, Addington J, Bearden CE, Cadenhead K, Cornblatt B, Mathalon DH, McGlashan T, Perkins D, Seidman LJ,
Tsuang M, Walker E, Woods SW, McEwen S, van Erp TGM, Cannon TD; North American Prodrome Longitudinal Study
(NAPLS) Consortium e il Pediatric Imaging, Neurocognition, and Genetics Consortium (PING) Study Consortium. Uso
dell'apprendimento automatico per determinare la devianza nella maturità neuroanatomica associata a future psicosi nei
giovani ad alto rischio clinico. JAMA Psychiatr,75(9):960-968, 2018.

Clay H, Stern R. "Fare tempo nella medicina generale", Primary Care Foundation, 1–83, 2015.

Cohen G. "Consenso informato e intelligenza artificiale medica: cosa dire al paziente?" Giornale di diritto di Georgetown.
(108), 2020.

Collins GS, Lune KGM. "Segnalazione di modelli di previsione dell'intelligenza artificiale", Lancet 393: 1577–79, 2019.

Collins, GS, Reitsma, JB, Altman, DG e Moons, KG "Rapporto trasparente di un modello di previsione multivariabile per
la prognosi o la diagnosi individuale (TRIPOD) the TRIPOD statement", Circulation, 131(2), pp.211-219, 2015.

Comunicazione della Commissione al Parlamento europeo, al Consiglio europeo, al Consiglio, al Comitato economico e
sociale europeo e al Comitato delle regioni Promuovere un approccio europeo all'intelligenza artificiale. aprile 2021.

Cook C, Fogli C. "Equilibrio clinico ed equilibrio personale: due ingredienti necessari per ridurre i pregiudizi nelle prove di
terapia manuale", J Man Manip Ther. 19(1):55-7, 2011.

Cook GJR, Goh V. Cosa può insegnarci l'intelligenza artificiale sui meccanismi molecolari alla base delle malattie? Eur J
Nucl Med Mol Imaging. 46:2715–2721, 2019.

Corredor G, Wang X, Zhou Y, Lu C, Fu P, Syrigos K, Rimm DL, Yang M, Romero E, Schalper KA, Velcheti V, Madabhushi
A. Architettura spaziale e disposizione dei linfociti infiltranti il tumore per prevedere la probabilità di recidiva nel carcinoma
polmonare non a piccole cellule in fase iniziale. Clin Cancer Res.;25(5):1526-1534, 2019.

Davenport, TH, Barth, P. e Bean, R.,. In che modo i "big data" sono diversi. Revisione della gestione Sloan del MIT, 2012.

Dawoodbhoy FM, Delaney J, Cecula P, Yu J, Peacock I, Tan J, Cox B. AI nel flusso dei pazienti: applicazioni
dell'intelligenza artificiale per migliorare il flusso dei pazienti nelle unità di degenza per la salute mentale acuta del NHS.
Eliyon. 7(5):e06993, 2021.

De Fauw, J., Ledsam, JR, Romera-Paredes, B., Nikolov, S., Tomasev, N., Blackwell, S., Askham, H., Glorot, X.,
O'Donoghue, B., Visentin, D. e van den Driessche, G., 'Apprendimento profondo clinicamente applicabile per la diagnosi
e il rinvio nella malattia della retina', Nature medicine, 24(9), pp.1342-13 50, 2018.

55
Machine Translated by Google

STOAA | Panel per il futuro della scienza e della tecnologia

De Vries L, Baselmans B, Bartels M. "Valutazione momentanea ecologica basata su smartphone del benessere: una
revisione sistematica e raccomandazioni per studi futuri", Journal of Happiness Studies. 22:2361–
2408, 2021.

Dijksterhuis A, Bos MW, Nordgren LF, van Baaren RB. Sul fare la scelta giusta: l'effetto della deliberazione senza
attenzione. Scienza. 2006; 311:1005e1007.

Direttiva, C., Direttiva 85/374/CEE del Consiglio, del 25 luglio 1985, concernente il ravvicinamento delle disposizioni
legislative, regolamentari e amministrative degli Stati membri in materia di responsabilità per danno da prodotti difettosi.
Gazzetta Ufficiale L, 210(07/08), pp.0029-0033, 1985.

Du, R., Lee, VH, Yuan, H., Lam, KO, Pang, HH, Chen, Y., Lam, EY, Khong, PL, Lee, AW, Kwong, DL e Vardhanabhuti,
V. 'Modello di radiomica per prevedere la progressione precoce del carcinoma rinofaringeo non metastatico dopo
radioterapia con modulazione di intensità: uno studio multicentrico. Radiologia', Intelligenza artificiale, 1(4), e180075,
2019.

Dusenbery, M. "Tutti mi dicevano che non c'era niente di sbagliato", The Health Gap, BBC News, 2018. www.bbc.com/
future/article/20180523-how-gender-bias-affects-your-healthcare

Dwyer DB, Falkai P, Koutsouleris N. 'Approcci di apprendimento automatico per la psicologia clinica e la psichiatria',
Annu Rev Clin Psychol, 14:91–118, 2018.

ECRIN, 'EFPIA, EATRIS, ELIXIR, BBMRI, ECRIN dichiarazione sul ruolo delle infrastrutture di ricerca per promuovere la
ricerca e l'innovazione incentrate sul paziente in Europa', https://ecrin.org/news/efpia-eatris-elixir-bbmri ecrin-statement-
role-research-infrastructures-boost-patient-centred, 24 luglio 2019 .

Consorzio EGA (European Genome-Phenome Archive), https://ega-archive.org/datasets, 2021.

Ehteshami Bejnordi B, Veta M, Johannes van Diest P, van Ginneken B, et al. "Valutazione diagnostica degli algoritmi di
deep learning per il rilevamento delle metastasi linfonodali nelle donne con carcinoma mammario".
JAMA.;318(22):2199-2210., 2017.

Elementi di AI. www.elementsofai.com, accesso a novembre 2021.

Ellahham, S., Ellahham, N. e Simsekler, MCE, "Applicazione dell'intelligenza artificiale nel contesto della sicurezza
sanitaria: opportunità e sfide", American Journal of Medical Quality, 35(4), pp.341-348, 2020.

Elliott JH, Turner T, Clavisi O, Thomas J, Higgins JP, Mavergames C, Gruen RL. Revisioni sistematiche viventi:
un'opportunità emergente per ridurre il divario tra evidenza e pratica. PLoS Med. 11(2):e1001603, 2014.

Emanuel EJ, Wachter RM. "Intelligenza artificiale nell'assistenza sanitaria: il valore corrisponderà all'hype?" GIAMA.
321(23):2281-2282, 2019.

EuCanImage, https://eucanimage.eu, accesso a novembre 2021.

Commissione europea, "Proposta di regolamento del Parlamento europeo e del Consiglio che stabilisce norme
armonizzate sull'intelligenza artificiale (legge sull'intelligenza artificiale) e modifica di alcuni atti legislativi dell'Unione",
aprile 2021.

Commissione europea. Piano d'azione per l'istruzione digitale (2021-2027): ripristinare l'istruzione per l'era digitale, 2020.

Commissione europea. Occupazione, affari sociali e inclusione Disuguaglianze nell'accesso all'assistenza sanitaria. Uno
studio sulle politiche nazionali, 2018.

Commissione europea. Il pilastro europeo dei diritti sociali in 20 principi. 2021.

European Genome-Phenome Archive, 'Browse datsasets', https://ega-archive.org/datasets, accesso a novembre 2021.

56
Machine Translated by Google

Intelligenza artificiale in sanità

European Health Data Space, https://ec.europa.eu/health/ehealth/dataspace_en, ultimo accesso novembre 2021.

Eurostat. Statistica ampliata. Struttura della popolazione e invecchiamento, 2020.

Esteva, A., Robicquet, A., Ramsundar, B., Kuleshov, V., DePristo, M., Chou, K., Cui, C., Corrado, G., Thrun, S. e Dean,
J. 'Una guida al deep learning in ambito sanitario'. Medicina naturale, 25(1), 24-29, 2019.

Evans AJ, Henry PC, Van der Kwast TH, Tkachuk DC, Watson K, Lockwood GA, Fleshner NE, Cheung C, Belanger EC,
Amin MB, Boccon-Gibod L, Bostwick DG, Egevad L, Epstein JI, Grignon DJ, Jones EC, Montironi R, Moussa M, Sweet
JM, Trpkov K, Wheeler TM, Srigley JR. "Variabilità interosservatore tra patologi urologici esperti per estensione
extraprostatica e stato del margine chirurgico in campioni di prostatectomia radicale", Am J Surg Pathol. 32(10):1503-12,
2008.

Farina, R. e Sparano, A. 'Errori nell'ecografia. In Errori in radiologia' (pp. 79-85). Springer, Milano, 2012.

Felzmann, H., et al., 'Towards Transparency by Design for Artificial Intelligence', Science and Engineering Ethics, 26:3333–
3361, 2020.

Fernández García, J., Spatharou, A., Hieronimus, S., Beck, JP, Jenkins, J. Trasformare l'assistenza sanitaria con l'IA:
l'impatto sulla forza lavoro e sulle organizzazioni. Sintesi. EIT Health & McKinsey & Company, marzo 2020.

Ferryman, K. e Pitcan, M., Equità nella medicina di precisione. Dati e società, 2018.

Fihn SD, Saria S, Mendonça E, Hain S, Matheny M, Shah N, Liu H, Auerbach, A. 'Distribuzione dell'IA in contesti clinici.
Nell'intelligenza artificiale nell'assistenza sanitaria: la speranza, l'hype, la promessa, il pericolo ', Editori: Matheny M, Israni
ST, Ahmed M, Whicher D. Washington, DC: National Academy of Medicine, 2019.

Filice, RW e Ratwani, RM "Il caso dell'intelligenza artificiale centrata sull'utente in radiologia", Radiology: Artificial
Intelligence, 2020, vol. 2, n. 3.

Finlayson, SG, Bowers, JD Ito, J., Zittrain, JL, Beam, AL, Kohane, IS, 'Adversarial attack on medical machine learning',
Science, 2019.

Fiorini N, Leaman R, Lipman DJ, Lu Z. Come sta migliorando l'intelligenza degli utenti. PubMed. Nat Biotecnol. 2018a.

Fiorini N, Canese K, Starchenko G, Kireev E, Kim W, Miller V, Osipov M, Kholodov M, Ismagilov R, Mohan S, Ostell J, Lu
Z. 'Best Match: Nuova ricerca di rilevanza per PubMed', PLoS Biol. 2018b;16(8):e2005343.

Firth J, Torous J, Nicholas J, Carney R, Pratap A, Rosenbaum S, Sarris J. "L'efficacia degli interventi di salute mentale
basati su smartphone per i sintomi depressivi: una meta-analisi di studi controllati randomizzati", World Psychiatry.
2017;16(3):287-298.

Fitzpatrick KK, Darcy A, Vierhile M. "Offrire una terapia cognitivo-comportamentale a giovani adulti con sintomi di
depressione e ansia utilizzando un agente conversazionale completamente automatizzato (Woebot): una prova controllata
randomizzata", JMIR Ment Health.;4(2):e19, 2017.

Fleming N. "Come l'intelligenza artificiale sta cambiando la scoperta di farmaci", Nature: 557: S55–57, 2018.

Forster T, Kentikelenis A, Bambra, C, 'Health Inequalities in Europe: Setting the Stage for Progressive Policy Action',
Foundation for European Progressive Studies. TASC: Think tank per l'azione sul cambiamento sociale. 2018.

Freeman, K, Dinnes, J, Chuchu, N, Takwoingi, Y, Bayliss, SE, Matin, RN, Jain, A, Walter, FM, Williams, HC e Deeks, JJ,
"App per smartphone basate su algoritmi per valutare il rischio di cancro della pelle negli adulti: revisione sistematica degli
studi sull'accuratezza diagnostica" BMJ, 2020, 368.

FUTURE-AI: Best practices for trustworthy AI in medical imaging, www.future-ai.eu, accesso a novembre 2021.

57
Machine Translated by Google

STOAA | Panel per il futuro della scienza e della tecnologia

Geis JR, Brady A, Wu CC, Spencer J, Ranschaert E, Jaremko JL, Langer SG, Kitts AB, Birch J, Shields WF, van den
Hoven van Genderen R, Kotter E, Gichoya JW, Cook TS, Morgan MB, Tang A, Safdar NM, Kohli M.
"Etica dell'intelligenza artificiale in radiologia: riassunto della dichiarazione congiunta della multisocietà europea e
nordamericana", Insights Imaging, 2019 Oct 1;10(1):101. doi: 10.1186/s13244-019-0785-8. PMID: 31571015; PMCID:
PMC6768929.

Regolamento generale sulla protezione dei dati (GDPR), regolamento (UE) 2016/679 del Parlamento europeo e del
Consiglio, del 27 aprile 2016, https://eur-lex.europa.eu/eli/reg/2016/679/oj, ultimo accesso dicembre 2021.
Gerke, S., Minssen, T. e Cohen, G. "Sfide etiche e legali dell'assistenza sanitaria guidata dall'intelligenza artificiale". In
Intelligenza artificiale in sanità (pp. 295-336). Stampa accademica, 2020.

Commissione tedesca per l'etica dei dati, Parere della Commissione per l'etica dei dati, luglio 2019, https://www.bmjv.de/
DE/Themen/FokusThemen/Datenethikkommission/Datenethikkommission_EN_
nodo.html.

Ghassemi, M. "Exploring Healthy Models in ML for Health", AI for Healthcare Equity Conference, AI & Health al MIT,
2021. https://www.youtube.com/watch?v=5uZROGFYfcA

Gillespie, N., Lockey, S. e Curtis, C. "Trust in Artificial Intelligence: A Five Country Study", The University of Queensland
e KPMG Australia, 2021.

Gillies RJ, Kinahan PE, Hricak H. "Radiomica: le immagini sono più che immagini, sono dati",
Radiologia.;278:563–577, 2016.

Giulietti M, Cecati M, Sabanovic B, Scirè A, Cimadamore A, Santoni M, et al. "Il ruolo dell'intelligenza artificiale nella
diagnosi e nella prognosi dei tumori delle cellule renali", Diagnostics, ;11(2):206, 2021.

Golbraikh A, Wang X, Zhu H, Tropsha A. "Modellazione QSAR predittiva: metodi e applicazioni nella scoperta di farmaci
e valutazione del rischio chimico", In Handbook of Computational Chemistry, ed. J Leszczynski, A Kaczmarek-Kedziera,
T Puzyn, MG Papadopoulos, H Reis, MK, 2012.

Gómez-González E, Gómez E. "Intelligenza artificiale in medicina e assistenza sanitaria: applicazioni, disponibilità e


impatto sulla società", EUR 30197 EN. Ufficio delle pubblicazioni dell'Unione europea, Lussemburgo, 2020.

Goodfellow, I., Bengio, Y. e Courville, A., Deep learning. Stampa del MIT, 2016.

Graham S, Depp C, Lee EE, Nebeker C, Tu X, Kim HC, Jeste DV. "Intelligenza artificiale per la salute mentale e le
malattie mentali: una panoramica", Curr Psychiatry Rep;21:116, 2019.

Guo J, Li B. "L'applicazione della tecnologia dell'intelligenza artificiale medica nelle aree rurali dei paesi in via di sviluppo",
Health Equity, ; 2: 174–81, 2018.

Gupta R, Kleinjans J e Caiment F. "Identificazione di nuovi biomarcatori di trascrizione per carcinoma epatocellulare
(HCC) utilizzando set di dati RNA-Seq e apprendimento automatico", BMC Cancer.;21(962), 2021.

Haibe-Kains, B., Adam, GA, Hosny, A., Khodakarami, F., Waldron, L., Wang, B., McIntosh, C., Goldenberg, A., Kundaje,
A., Greene, CS e Broderick, T., 'Transparency and reproducibility in artificial intelligence', Nature, 586(7829), pp.E14-E16,
2020.

Hamed S, Thapar-Björkert S, Bradby H, Ahlberg B. "Racism in European Health Care: Structural Violence and Beyond",
Sage Journals.;30(11), 2020.

Harned, Z., Lungren, MP e Rajpurkar, P. "Visione artificiale, intelligenza artificiale medica e negligenza", Harv. JL & Tech.
Tu, 2019.

Harvey, HB e Gowda, V., 'Come la FDA regola l'IA. Radiologia accademica", 27(1), pp.58-61, 2020.

Hashimoto DA, Rosman G, Witkowski ER, et al. "Analisi della visione al computer del video intraoperatorio: riconoscimento
automatico delle fasi operative nella gastrectomia laparoscopica della manica", Ann Surg.;270:414e421, 2019.

58
Machine Translated by Google

Intelligenza artificiale in sanità

Hashimoto, DA, Rosman, G., Rus, D. e Meireles, OR, "Intelligenza artificiale in chirurgia: promesse e pericoli", Annals of surgery,
268(1), p.70, 2018.

Hermsen M, Bel T, Boer M Den, Steenbergen EJ, Kers J, Florquin S, et al. "Valutazione istopatologica basata sull'apprendimento
profondo del tessuto renale", J Am Soc Nephrol.;30(10):1968–79, 2019.

Hernandez-Boussard, T., Bozkurt, S., Ioannidis, JP e Shah, NH 'MINIMAR (MINimum Information for Medical AI Reporting):
sviluppo di standard di reporting per l'intelligenza artificiale nell'assistenza sanitaria', Journal of the American Medical Informatics
Association, 27(12), pp.2011-2015, 2020.

Hill, NR, Sandler, B., Mokgokong, R., Lister, S., Ward, T., Boyce, R., Farooqui, U. e Gordon, J., "Efficacia dei costi dello
screening mirato per l'identificazione dei pazienti con fibrillazione atriale: valutazione di un algoritmo di previsione del rischio di
apprendimento automatico", Journal of medical economics, 23(4), pp.386-393, 2020.

Hocking, L., Parks, S., Altenhofer, M. e Gunashekar, S.,. "Riutilizzo dei dati sanitari da parte dell'industria farmaceutica europea",
RAND Corporation, 2019.

Hoffman, KM, Trawalter, S., Axt, JR e Oliver, MN, "Pregiudizio razziale nella valutazione del dolore e raccomandazioni
terapeutiche e false credenze sulle differenze biologiche tra neri e bianchi", Atti della National Academy of Sciences, 113(16),
pp.4296-4301, 2016.

Human-Centred Artificial Intelligence Programme, www.dtu.dk/


english/Education/msc/Programmes/human-centered-artificial-intelligence, accesso a novembre 2021.

Islam MM, Nasrin T, Walther BA, Wu CC, Yang HC, Li YC. "Previsione dei pazienti con sepsi utilizzando l'approccio di
apprendimento automatico: una meta-analisi", Comput Methods Programs Biomed. 170:1-9, 2019.

Jamthikar AD, Gupta D, Saba L, Khanna NN, Viskovic K, Mavrogeni S, Laird JR, Sattar N, Johri AM, Pareek G, Miner M, Sfikakis
PP, Protogerou A, Viswanathan V, Sharma A, Kitas GD, Nicolaides A, Kolluri R, Suri JS.
"Quadro di intelligenza artificiale per modelli predittivi di valutazione del rischio cardiovascolare e di ictus: una revisione narrativa
degli approcci integrati che utilizzano l'ecografia carotidea", Comput Biol Med.;126:104043, 2020.

Jiang S, Chin KS, Tsui KL. "Un approccio di apprendimento profondo universale per modellare il flusso di pazienti con gravità
diversa", Comput Methods Programs Biomed.;154:191-203, 2018.

Jin, JM, Bai, P., He, W., Wu, F., Liu, XF, Han, DM, Liu, S. e Yang, JK,. "Differenze di genere nei pazienti con COVID-19:
attenzione alla gravità e alla mortalità", Frontiers in public health, 8, p.152, 2020.

Kaddoum R, Fadlallah R, Hitti E, El-Jardali F, El Eid G. "Cause di cancellazioni il giorno dell'intervento chirurgico presso un
ospedale universitario terziario", BMC Health Serv. Ris. 16, 2016.

Kaissis, GA, Makowski, MR, Rückert, D. e Braren, RF "Apprendimento automatico sicuro, che preserva la privacy e federato
nell'imaging medico", Nature Machine Intelligence, 2(6), pp.305-311, 2020.

Kamat AS, Parker A. "Effetto dell'inefficienza perioperatoria sull'efficacia del teatro neurochirurgico: un'analisi di 15 anni", fr. J.
Neurochirurgo. 29: 565–568, 2015.

Kaminski, ME e Malgieri, G. 'Valutazioni dell'impatto algoritmico ai sensi del GDPR: produzione di spiegazioni a più livelli. U of
Colorado Law Legal Studies Research Paper', (19-28), 2019.

Kaushal, A., Altman, R. e Langlotz, C. "Distribuzione geografica delle coorti statunitensi utilizzate per addestrare algoritmi di
apprendimento profondo", Jama, 324(12), pp.1212-1213, 2020.

Kiener, M. "Potresti essere hackerato" e altre cose che i medici dovrebbero dirti". La conversazione.
3 novembre 2020. https://theconversation.com/you-may-be-hacked-and-other-things-doctors-should tell-you-148946

59
Machine Translated by Google

STOAA | Panel per il futuro della scienza e della tecnologia

Kim, DW, Jang, HY, Kim, KW, Shin, Y. e Park, SH "Caratteristiche di progettazione degli studi che riportano le prestazioni
degli algoritmi di intelligenza artificiale per l'analisi diagnostica delle immagini mediche: risultati di articoli pubblicati di recente",
Korean Journal of Radiology, 20(3), p.405, 2019.

Kirubarajan A, Taher A, Khan S, Masood S. "Intelligenza artificiale nella medicina d'urgenza: una revisione dell'ambito", J Am
Coll Emerg Physicians Open.;1(6):1691-1702, 2019.

Koene, A., Clifton, C., Hatada, Y., Webb, H. e Richardson, R., A governance framework for algoritmic accountability and
trasparenza, EPRS, Parlamento europeo, 2019.

Kompa, B., Snoek, J. e Beam, AL "Seconda opinione necessaria: comunicare l'incertezza nell'apprendimento automatico
medico", NPJ Digital Medicine, 4(1), pp.1-6, 2021.

Koops, B.J. 'Il concetto di funzione striscia. Diritto, innovazione e tecnologia", 13(1), pp.29-56, 2021.

Krittanawong, C. "L'ascesa dell'intelligenza artificiale e il futuro incerto per i medici", European Journal of Internal Medicine,
48, pp.e13-e14, 2018.

Kulkarni S, Seneviratne N, Baig MS, Khan AHA. "Intelligenza artificiale in medicina: a che punto siamo adesso?"
Acad Radiol. Gen;27(1):62-70., 2020.

Kuo CC, Chang CM, Liu KT, Lin WK, Chiang HY, Chung CW, et al. "Automazione della previsione e della classificazione della
funzione renale attraverso l'imaging renale basato su ultrasuoni utilizzando il deep learning", NPJ Digit Med.;2(29), 2019.

Lago IR, Colón-González FJ, Barker GC, Morbey RA, Smith GE, Elliot AJ. "Apprendimento automatico per affinare il processo
decisionale all'interno di un servizio di sorveglianza sindromica", BMC Public Health; 19:559, 2019.

Larson, DB, Harvey, H., Rubin, DL, Irani, N., Justin, RT e Langlotz, CP, 2021. "Quadri normativi per lo sviluppo e la valutazione
degli algoritmi di imaging diagnostico basati sull'intelligenza artificiale: riepilogo e raccomandazioni", Journal of the American
College of Radiology, 18(3), pp.413-424, 2021.

Leavy, S. "Gender bias in artificial intelligence: the need for diversity and gender theory in machine learning", GE '18:
Proceedings of the 1st International Workshop on Gender Equality in Software Engineering, maggio 2018.

Lee CS, Lee AY. "Come l'intelligenza artificiale può trasformare le prove controllate randomizzate", Transl Vis Sci
Technol.;9(2):9, 2020.

Lee EE, Torous J, De Choudhury M, Depp CA, Graham SA, Kim HC, Paulus MP, Krystal JH, Jeste DV. "Intelligenza artificiale
per la cura della salute mentale: applicazioni cliniche, barriere, facilitatori e saggezza artificiale", Biol Psychiatry Cogn Neurosci
Neuroimaging.;6(9):856-864, 2021.

Lehne M, Sass J, Essenwanger A, Schepers J, Thun S. "Perché la medicina digitale dipende dall'interoperabilità", NPJ Digit
Med.;2:79, 2019.

Lekadir, K. et al. "FUTURE-AI: migliori pratiche per un'IA affidabile in medicina", www.future-ai.org, 2022.

Leone, D., Schiavone, F., Appio, FP e Chiao, B. 'In che modo l'intelligenza artificiale consente e migliora la co-creazione di
valore nei mercati industriali? Un caso di studio esplorativo nell'ecosistema sanitario", Journal of Business Research, 129,
pp.849-859, 2021.

Lewis, JR "La scala di usabilità del sistema: passato, presente e futuro", International Journal of Human–
Interazione tra computer, 34(7), pp.577-590, 2018.

Li, Y. e Vasconcelos, N. 'Riparazione: rimozione del bias di rappresentazione mediante il ricampionamento del set di dati', In
Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (pp. 9572-9581), 2019.

Lindenmeyer MT, Alakwaa F, Rose M, Kretzler M. "Prospettive nella nefrologia dei sistemi", Cell Tissue Res, 2021.

60
Machine Translated by Google

Intelligenza artificiale in sanità

Lipton, Zachary C. "Il dottore non lo accetterà!" arXiv prestampa arXiv:1711.08037, 2017.

Liu X, Faes L, Kale AU, Wagner SK, Fu DJ, Bruynseels A, Mahendiran T, Moraes G, Shamdas M, Kern C, Ledsam JR,
Schmid MK, Balaskas K, Topol EJ, Bachmann LM, Keane PA, Denniston AK. "Un confronto tra le prestazioni di
apprendimento profondo e gli operatori sanitari nel rilevamento di malattie dall'imaging medico: una revisione sistematica
e una meta-analisi", Lancet Digit Health.1(6):e271-e297, 2019.

Liu, X., Rivera, SC, Moher, D., Calvert, MJ e Denniston, AK "Linee guida per la segnalazione di rapporti di studi clinici per
interventi che coinvolgono l'intelligenza artificiale: l'estensione CONSORT-AI", BMJ, 370, 2020.

Loftus TJ, Filiberto AC, Li Y, Balch J, Cook AC, Tighe PJ, Efron PA, Upchurch GR Jr, Rashidi P, Li X, Bihorac A. 'Analisi
decisionale e apprendimento di rinforzo nel processo decisionale chirurgico', Chirurgia.168(2):253-266, 2020.

Loftus TJ, Upchurch GR Jr, Bihorac A. "Uso dell'intelligenza artificiale per rappresentare i sistemi emergenti e aumentare
il processo decisionale chirurgico", JAMA Surg. 154(9):791-792, 2019.

Lopez-Jimenez F, Attia Z, Arruda-Olson AM, Carter R, Chareonthaitawee P, Jouni H, et al. [ PubMed ] [ Cross Ref ] Mayo
Clin Proc; Apocalisse 95(5):1015–39,

Lorkowski J, Kolaszyÿska O, Pokorski M. "Intelligenza artificiale e medicina di precisione: una prospettiva", Adv Exp Med
Biol. 18 giu. Doi. Epub prima della stampa. PMID: 34138457, 2021.

Lundberg, SM, Lee, SI. "Un approccio unificato all'interpretazione delle previsioni del modello", in: Atti della 31a
Conferenza internazionale sui sistemi di elaborazione delle informazioni neurali, Curran Associates Inc., Red Hook, NY,
USA. P. 4768–4777, 2017.

Lv, Z. e Piccialli, F. "La sicurezza dei dati medici su Internet basata sulla tecnologia della privacy differenziale", ACM
Transactions on Internet Technology, 21(3), pp.1-18, 2021.

Maddox TM, Rumsfeld JS, Payne PRO. "Domande per l'intelligenza artificiale nell'assistenza sanitaria", JAMA. 321(1):31-
32, 2019.

Madine, MM, Battah, AA, Yaqoob, I., Salah, K., Jayaraman, R., Al-Hammadi, Y., Pesic, S. e Ellahham, S.
"Blockchain per dare ai pazienti il controllo sulle loro cartelle cliniche" IEEE Access, 8, pp.193102-193115, 2020.

Magrabi, F., Ammenwerth, E., McNair, JB, De Keizer, NF, Hyppönen, H., Nykänen, P., Rigby, M., Scott, PJ, Vehko, T.,
Wong, ZSY e Georgiou, A. "Intelligenza artificiale nel supporto alle decisioni cliniche: sfide per la valutazione dell'IA e
implicazioni pratiche", Yearbook of Medical Informatics, 28(1), p.128, 20 19.

Maharana A, Nsoesie EO. "Uso del deep learning per esaminare l'associazione dell'ambiente costruito con la prevalenza
dell'obesità degli adulti di quartiere", JAMA Network Open. 1(4):e181535, 2018.

Maliha, G., Gerke, S., Cohen, IG e Parikh, RB "Artificial Intelligence and Liability in Medicine: Balancing Safety and
Innovation", The Milbank Quarterly, 2021.

Mamoshina P, Ojomoko L, Yanovich Y, Ostrovski A, Botezatu A, Prikhodko P, Izumchenko E, Aliper A, Romantsov K,


Zhebrak A, Ogu IO, Zhavoronkov A. 'Converging blockchain and next-generation artificial intelligence technologies to
decentralize and accelerate biomedical research and healthcare', Oncotarget.;9:5665-5690, 2017.

Manne, R. e Kantheti, SC "Applicazione dell'intelligenza artificiale nel settore sanitario: possibilità e sfide".
Current Journal of Applied Science and Technology, pp.78-89, 2021.

Marschang S, "The European Health Data Space: c'è abbastanza spazio per tutti?" Alleanza europea per la salute
pubblica", https://epha.org/the-european-health-data-space-is-there-room-enough-for-all/, 2021.

Mayerhoefer ME, Materka A, Langs G, Häggström I, Szczypiÿski P, Gibbs P, Cook G. 'Introduzione alla radiomica', J Nucl
Med. 61:488-495, 2020.

61
Machine Translated by Google

STOAA | Panel per il futuro della scienza e della tecnologia

McCoy, LG, Nagaraj, S., Morgado, F., Harish, V., Das, S. e Celi, LA "Cosa devono effettivamente sapere gli studenti di medicina
sull'intelligenza artificiale?" NPJ Digital Medicine, 3(1), pp.1-3, 2020.

McKeown, A., Mourby, M., Harrison, P., Walker, S., Sheehan, M. e Singh, I. "Problemi etici nel consenso per il riutilizzo dei dati nelle
piattaforme di dati sanitari", Science and Engineering Ethics, 27(1), pp.1-21, 2021.

McKinney, SM et al. "Valutazione internazionale di un sistema di intelligenza artificiale per lo screening del cancro al seno", Nature
577, 89–94, 2020.

Medeiros J, Schwierz C. Stime di efficienza dei sistemi sanitari nell'UE. Commissione europea.
Direzione generale degli affari economici e finanziari. 2015.

Medeiros, J., Schwierz, C., "Stime di efficienza dei sistemi sanitari", Economic Papers, Commissione europea, 2015.

Menke NB, Caputo N, Fraser R, Haber J, Shields C, Menke MN. "Un'analisi retrospettiva dell'utilità di una rete neurale artificiale per
prevedere il volume ED", Am J Emerg Med.32:614-7, 2014.

Meskó B, Görög M. "Una breve guida per i professionisti medici nell'era dell'intelligenza artificiale", NPJ Digit Med. 3:126, 2020.

Michel JP, Ecarnot F. "La carenza di lavoratori qualificati in Europa: il suo impatto sulla medicina geriatrica", Eur Geriatr Med.
11(3):345-347, 2020.

Miotto, R, Li L, Kidd BA, Dudley JIT. "Paziente profondo: una rappresentazione non supervisionata per prevedere il futuro dei pazienti
dalle cartelle cliniche elettroniche", Scientific Reports. 6:26094, 2020.

Mobadersany P, Yousefi S, Amgad M, Gutman DA, Barnholtz-Sloan JS, Velázquez Vega JE, Brat DJ, Cooper LAD. "Prevedere gli
esiti del cancro dall'istologia e dalla genomica utilizzando reti convoluzionali", Proc Natl Acad Sci US A.; 115(13):E2970-E2979, 2018.

Mohr DC, Riper H, Schueller SM. "Un approccio di ricerca incentrato sulla soluzione per realizzare una rivoluzione implementabile
nella salute mentale digitale", JAMA Psychiatry; 75(2):113-114, 2018.

Mooney SJ, Pejaver V. "Big data in public health: terminology, machine learning, and privacy", Annu Rev Public Health;39:95-112,
2018.

Mora-Cantallops, M.; Sanchez-Alonso, S.; García-Barriocanal, E.; Sicilia, M.-A. "Tracciabilità per un'IA affidabile: una rassegna di
modelli e strumenti", Big Data Cogn. computer 5, 20, 2021.

Morley, J. e Floridi, L. "Un approccio eticamente consapevole all'IA per l'assistenza sanitaria", Lancet vol. 395, pp. 254-255, 2020.

Mulcahy, N. "Il recente attacco informatico ha interrotto la cura del cancro negli Stati Uniti" WebMD. 20 luglio 2021. https://
www.webmd.com/cancer/news/20210720/recent-cyberattack-disrupted-cancer-care-us

Nagar A, Yew P, Fairley D, Hanrahan M, Cooke S, Thompson I, Elbaz W. "Rapporto di un'epidemia di infezione da Clostridium
difficile causata dal ribotipo 053 in un'unità di neurochirurgia", J. Infect. Prec. 16: 126–130, 2015.

Nagendran M, Chen Y, Lovejoy CA, Gordon AC, Komorowski M, Harvey H, Topol EJ, Ioannidis JPA, Collins GS, Maruthappu M.
"Intelligenza artificiale contro medici: revisione sistematica del design, standard di segnalazione e affermazioni di studi
sull'apprendimento profondo", BMJ. ;368:m689., 2020.

National Careers Service: The Skills Toolkit, https://nationalcareers.service.gov.uk/find-a-course/the skills-toolkit, accesso a


novembre 2021.

Newman, LH "Questi hacker hanno creato un'app che uccide per dimostrare un punto", WIRED. 16 luglio 2019, https://www.wired.com/
story/medtronic-insulin-pump-hack-app/.

SSN Inghilterra. Audit clinico, https://www. inghilterra.nhs. uk/clinaudit/, 2021.

62
Machine Translated by Google

Intelligenza artificiale in sanità

NHS Improvement, Good Practice Guide: Focus on Improving Patient Flow, 2017. https://improvement.nhs.uk/
documents/1426/Patient_Flow_Guidance_2017___13_July_2017.pdf

Niazi MKK, Parwani AV, Gurcan MN. "Patologia digitale e intelligenza artificiale", Lancet Oncol.; 20(5):e253-e261, 2019.

Noseworthy PA, Attia ZI, Brewer LPC, Hayes SN, Yao X, Kapa S, et al. "Valutazione e mitigazione del pregiudizio
nell'intelligenza artificiale medica: gli effetti della razza e dell'etnia su un modello di apprendimento profondo per l'analisi
ECG", Circ Arrhythmia Electrophysiol.;13(3), 2020.

Obermeyer Z, Powers B, Vogeli C, Mullainathan S, 'Analisi del pregiudizio razziale in un algoritmo utilizzato per gestire
la salute delle popolazioni', Science, vol. 366, n. 6464, pp. 447–453, ottobre 2019.

OCSE/Unione Europea,Health at a Glance: Europe 2020: State of health in the EU cycle. Editoria OCSE, Parigi, 2020.

OCSE/Unione Europea. Prevalenza della demenza. In Health at a Glance: Europe 2018: State of Health in the EU
Cycle, OECD Publishing, Parigi/Unione Europea, Bruxelles, 2018.

Okanoue T, Shima T, Mitsumoto Y, Umemura A, Yamaguchi K, Itoh Y, Yoneda M, Nakajima A, Mizukoshi E, Kaneko S,
Harada K. "Intelligenza artificiale/sistema di rete neurale per lo screening della steatosi epatica non alcolica e della
steatoepatite non alcolica", Hepatol Res 51(5):554–569, 2021.

Ota, N., Tachibana, K., Kusakabe, T., Sanada, S. e Kondoh, M. "Un concetto per un quadro normativo giapponese per
dispositivi medici emergenti con comportamento frequentemente modificato", Scienza clinica e traslazionale, 13(5),
pp.877-879, 2020.

Panwar, H., Gupta, PK, Siddiqui, MK, Morales-Menendez, R., Bhardwaj, P. e Singh, V. "Un approccio di visualizzazione
del colore basato su deep learning e grad-CAM per il rilevamento rapido di casi di COVID-19 utilizzando radiografie del
torace e immagini CT-Scan", Chaos, Solitons & Fractals, 140, 110190, 2020.

Paranjape, K., Schinkel, M., Panday, RN, Car, J. e Nanayakkara, P. "Introducing artificial intelligence training in medical
education" JMIR Medical Education, 5(2), p.e16048, 2019.

Parikh RB, Teeple S, Navathe AS. "Affrontare i pregiudizi nell'intelligenza artificiale nell'assistenza sanitaria", JAMA;
322(24):2377-2378, 2019.

Park S, Park BS, Lee YJ, Kim IH, Park JH, Ko J, et al. 'Intelligenza artificiale con malattia renale: una revisione scoping
con analisi bibliometrica', PRISMA-ScR. Medicina (Baltimora);100(14), 2021.

Park, SH e Han, K. "Guida metodologica per la valutazione delle prestazioni cliniche e degli effetti della tecnologia
dell'intelligenza artificiale per la diagnosi e la previsione medica", Radiology, 286(3), pp.800-809, 2018.

Park, Y., Jackson, GP, Foreman, MA, Gruen, D., Hu, J. e Das, AK 'Valutazione dell'intelligenza artificiale in medicina:
fasi della ricerca clinica', Journal of American Medical Informatics Associations Open, 3(3), pp.326-331, 2020.

Peng J, Wang Y. "Segmentazione dell'immagine medica con supervisione limitata: una revisione dei modelli di rete
profonda", accesso IEEE.; 99:, 2021.

Perez MJ, Grande RG. "Applicazione dell'intelligenza artificiale nella diagnosi e nel trattamento del carcinoma
epatocellulare: una revisione", World J Gastroenterol. 26(37):5617–5628, 2021.

Pickering B. Trust, but Verify: Informed Consent, AI Technologies, and Public Health Emergencies, Future Internet
13(5):132, 2021.

Pinto, A., Pinto, F., Faggian, A., Rubini, G., Caranci, F., Macarini, L., Genovese, E.A. and Brunese, L. 'Sources of error
in emergency ultrasonography', Critical Ultrasound Journal, 5(1), pp.1-, 2013.

Ploug, T, Holm S. 'Meta Consent – A Flexible Solution to the Problem of Secondary Use of Health Data', Bioethics, 30
(9), 2016.

63
Machine Translated by Google

STOAA | Panel per il futuro della scienza e della tecnologia

Prokop M, van Everdingen W, van Rees Vellinga T, et al. "CORADS: uno schema categorico di valutazione CT per i
pazienti con sospetto di COVID-19: definizione e valutazione", Radiology, 2020:201473, [E-pub before print, 2020
Apr 27].

Quaglio G, Brand H, Dario C. 'Combattere la demenza in Europa: il momento di agire è adesso', Lancet Neurol.
15(5):452-4, 2016.

Quaglio GL, Boone R. E se potessimo combattere la tossicodipendenza con la tecnologia digitale?, EPRS, Parlamento
europeo, 2019.

Quaglio GL, Pirona A, Esposito G, Karapiperis T, Brand H, Dom G, Bertinato L, Montanari L, Kiefer F, Giuseppe
Carrà G. 'Conoscenza e utilizzo di interventi basati sulla tecnologia per i disturbi da uso di sostanze: uno studio
esplorativo tra gli operatori sanitari nell'Unione europea. Droghe: istruzione, prevenzione e politica; 26 (5): 437-446,
2018.

Quaglio GL. Politica di sanità pubblica dell'UE. 2020. Servizi di ricerca del Parlamento europeo (EPRS). Parlamento
Europeo, Bruxelles.

Quaglio GL, Millar S, Pazour M, Albrecht V, Vondrak T, Kwiek M, Schuch K. Exploring the performance gap in EU
Framework Programs between EU13 and EU15 Member States. 2020B. Servizi di ricerca del Parlamento europeo
(EPRS). Parlamento Europeo, Bruxelles.

Quer G, Arnaout R, Henne M, Arnaout R. "Apprendimento automatico e il futuro delle cure cardiovascolari: JACC
State-of-the-Art Review", J Am Coll Cardiol. 77(3):300–13, 2021.

Raghupathi, W. e Raghupathi, V. 'Analisi dei big data nel settore sanitario: promessa e potenziale. Scienze e sistemi
dell'informazione sanitaria', 2(1), pp.1-10, 2014.

Raji, ID "Closing the AI Accountability Gap: Defining an end-to-end Framework for Internal Algorithmic Auditing",
arXiv preprint, arXiv:2001.00973, 2020.

Rajkomar, A., Hardt, M., Howell, MD, Corrado, G. e Chin, MH, 2018. 'Garantire l'equità nell'apprendimento automatico
per promuovere l'equità sanitaria', Annals of Internal Medicine, 169(12), pp.866-872, 2018.

Ram S, Zhang W, Williams M, Pengetnze Y. "Previsione delle visite al pronto soccorso correlate all'asma utilizzando
i big data", IEEE J Biomed Health Inform. 19:1216-23, 2015.

Rampton, V., Mittelman, M. e Goldhahn, J. "Implicazioni dell'intelligenza artificiale per l'educazione medica", The
Lancet Digital Health, 2(3), pp.e111-e112, 2020.

Reardon, S. 'Rise of robot radiologists', Nature, 576(7787), pp.S54-S54, 2019.

Recht, MP, Dewey, M., Dreyer, K., Langlotz, C., Niessen, W., Prainsack, B. e Smith, JJ 'Integrating artificial
intelligence into the clinical practice of radiology: Challenges and Recommendations', European Radiology, pp.1-9,
2020.

Redlich R, Almeida JJ, Grotegerd D, Opel N, Kugel H, Heindel W, et al. "Biomarcatori morfometrici cerebrali che
distinguono la depressione unipolare e bipolare: una morfometria basata su voxel: un approccio di classificazione dei
modelli", JAMA Psychiatry; 71:1222–1230, 2014.

Reece AG, Reagan AJ, Lix KLM, Dodds PS, Danforth CM, Langer EJ. "Previsione dell'insorgenza e del decorso della
malattia mentale con i dati di Twitter", Sci Rep. 7(1):13006, 2017.

Regolamento (UE) 2017/745 del Parlamento europeo e del Consiglio, del 5 aprile 2017, relativo ai dispositivi medici,
che modifica la direttiva 2001/83/CE, il regolamento (CE) n. 178/2002 e il regolamento (CE) n.

Reisman, D., Schultz, J., Crawford, K. e Whittaker, M. "Valutazioni dell'impatto algoritmico: un quadro pratico per la
responsabilità delle agenzie pubbliche", AI Now Institute, pp.1-22, 2018.

64
Machine Translated by Google

Intelligenza artificiale in sanità

Roberts, H., Cowls, J., Morley, J., Taddeo, M., Wang, V. e Floridi, L. "L'approccio cinese all'intelligenza artificiale: un'analisi di
politica, etica e regolamentazione", AI & SOCIETY, pp.1-19, 2020.

Roski J, Chapman W, Heffner J, Trivedi R, Del Fiol G, Kukafka R, Bleicher Estiri OH, Klann J, Pierce J. "Come l'intelligenza
artificiale sta cambiando la salute e l'assistenza sanitaria". In Intelligenza artificiale nell'assistenza sanitaria: la speranza,
l'entusiasmo, la promessa, il pericolo. Redattori: Matheny M, Israni ST, Ahmed M, Whicher D. Washington, DC: National
Academy of Medicine, 2019.

Samulowitz A, Gremyr I, Eriksson E, Hensing G. "Uomini coraggiosi" e "donne emotive": una revisione della letteratura guidata
dalla teoria sui pregiudizi di genere nell'assistenza sanitaria e sulle norme di genere nei confronti dei pazienti con dolore
cronico", Pain Res Manag. 2018;2018:6358624, 2018.

Sapci AH, Sapci HA. "Strumenti di vita assistita innovativi, tecnologie di monitoraggio remoto, soluzioni guidate dall'intelligenza
artificiale e sistemi robotici per società che invecchiano: revisione sistematica", JMIR Aging ;2(2):e15429, 2019.

Scheetz, J., Rothschild, P., McGuinness, M., Hadoux, X., Soyer, HP, Janda, M., Condon, JJ, Oakden-Rayner, L., Palmer, LJ,
Keel, S. e van Wijngaarden, P. "Un'indagine sui clinici sull'uso dell'intelligenza artificiale in oftalmologia, dermatologia, radiologia
e radiologia oncologica", Scientific Reports, 11(1), pp .1-10, 2021.

Schrider DR, Kern AD. "Apprendimento automatico supervisionato per la genetica delle popolazioni: un nuovo paradigma",
Trends Genet. 34:301–12, 2018.

Schwalbe N, Wahl B. "Intelligenza artificiale e futuro della salute globale", Lancet; 395(10236):1579-1586, 2020.

Schwartz WB. 'La medicina e il computer: la promessa ei problemi del cambiamento', N Engl J Med. 1970;283(23):1257-1264,
2020.

Scott, I., Carter, S. e Coiera, E. "Lista di controllo del clinico per la valutazione dell'idoneità delle applicazioni di apprendimento
automatico nel settore sanitario", BMJ Health & Care Informatics, 28(1), 2021.

Segretario generale dell'OCSE. Affrontare la spesa dispendiosa per la salute, Edizioni OCSE, Parigi, 2017.

Segretario generale dell'OCSE. IA affidabile nella salute. Documento di riferimento per il dialogo sull'intelligenza artificiale del
G20, task force sull'economia digitale, 2020.

Seyyed-Kalantari, L., Liu, G., McDermott, M., Chen, IY e Ghassemi, M. 'CheXclusion: Fairness gaps in deep chest X-ray
classifiers' BIOCOMPUTING 2021: Atti del Pacific Symposium (pp. 232-243), 2021.

Sheller, MJ, Edwards, B., Reina, GA, Martin, J., Pati, S., Kotrotsou, A., Milchenko, M., Xu, W., Marcus, D., Colen, RR e Bakas,
S. "Apprendimento federato in medicina: facilitare le collaborazioni multiistituzionali senza condividere i dati dei pazienti",
Scientific Reports, 10(1), pp.1-12, 2020.

Shickel B, Loftus TJ, Adhikari L, Ozrazgat-Baslanti T, Bihorac A, Rashidi P. "DeepSOFA: un punteggio di acuità continuo per
pazienti critici che utilizzano l'apprendimento profondo clinicamente interpretabile" Sci Rep; 9:1879, 2019.

Shin EK, Mahajan R, Akbilgic O, Shaban-Nejad A. "Sociomarcatori e biomarcatori: modellazione predittiva nell'identificazione di
pazienti pediatrici asmatici a rischio di rivisitazioni ospedaliere", NPJ Digit Med; 1:50, 2018.

Shortliffe EH, Sepúlveda MJ. "Supporto alle decisioni cliniche nell'era dell'intelligenza artificiale", JAMA.;320(21):2199-2200,
2018.

Shukla, 2016; pp. 2303–40. Dordrecht, Paesi Bassi: Springer.

Simpson S, Kay FU, Abbara S, et al. Dichiarazione di consenso degli esperti della Radiological Society of North America sulla
segnalazione dei risultati della TC del torace relativi a COVID-19. Approvato dalla Society of Thoracic Radiology, dall'American
College of Radiology e dalla RSNA [E-pub prima della stampa, 2020 aprile 28]. J Imaging toracico 2020.

65
Machine Translated by Google

STOAA | Panel per il futuro della scienza e della tecnologia

Siontis KC, Noseworthy PA, Attia ZI, Friedman PA. "Elettrocardiografia potenziata dall'intelligenza artificiale nella gestione
delle malattie cardiovascolari", Nat Rev Cardiol.;18:465–478, 2021.

Sit, C., Srinivasan, R., Amlani, A., Muthuswamy, K., Azam, A., Monzon, L. e Poon, DS 'Atteggiamenti e percezioni degli
studenti di medicina del Regno Unito nei confronti dell'intelligenza artificiale e della radiologia: un'indagine multicentrica',
Insights into Imaging, 11(1), p.14, 2020.

Smith, H. "AI clinica: opacità, responsabilità, responsabilità e responsabilità", AI & SOCIETY, pp.1-11, 2020.

Sornapudi S, Stanley RJ, Stoecker WV, Almubarak H, Long R, Antani S, Thoma G, Zuna R, Frazier SR. "Deep Learning
Nuclei Detection in immagini istologiche digitalizzate mediante superpixel", J Pathol Inform; 9:5, 2018.

Stanford University, Human-Centered Artificial Intelligence, https://hai.stanford.edu/, consultato a novembre 2021.

Steele AJ, Denaxas SC, Shah AD, Hemingway H, Luscombe NM. "I modelli di apprendimento automatico nelle cartelle
cliniche elettroniche possono superare i modelli di sopravvivenza convenzionali per la previsione della mortalità dei pazienti
nella malattia coronarica.", PLoS One 13(8):e0202344, 2018.

Steiner DF, MacDonald R, Liu Y, Truszkowski P, Hipp JD, Gammage C, Thng F, Peng L, Stumpe MC.' Impatto dell'assistenza
all'apprendimento profondo sulla revisione istopatologica dei linfonodi per il cancro al seno metastatico', Am J Surg Pathol.
;42(12):1636-1646, 2018.

Stokes JM, Yang K, Swanson K, Jin W, Cubillos-Ruiz A, Donghia NM, MacNair CR, French S, Carfrae LA, Bloom-Ackermann
Z, Tran VM, Chiappino-Pepe A, Badran AH, Andrews IW, Chory EJ, Church GM, Brown ED, Jaakkola TS, Barzilay R,
Collins JJ. "Un approccio di apprendimento profondo alla scoperta di antibiotici", Cell. 180(4):688-
702.e13, 2020.

Strianese O, Rizzo F, Ciccarelli M, Galasso G, D'Agostino Y, Salvati A, Del Giudice C, Tesorio P, and Rusciano M. 'Precision
and Personalized Medicine: How Genomic Approach Improves the Management of Cardiovascular and Neurodegenerative
Disease', Genes. 11(7):747, 2020.

Stylianou N, Fackrell R, Vasilakis C. "I valori anomali medici sono associati a esiti peggiori per i pazienti?" Uno studio
retrospettivo all'interno di un ospedale NHS regionale utilizzando dati di routine', BMJ Open 7. e015676, 2017.

Subbaswamy, A. e Saria, S. "Dallo sviluppo alla distribuzione: spostamento del set di dati, causalità e modelli stabili al
cambio nell'IA sanitaria", Biostatistica, 21(2), pp.345-352, 2020.

Sydow D, Burggraaff L, Szengel A, van Vlijmen HWT, AP IJ, et al.' Progressi e sfide nella previsione computazionale degli
obiettivi', J. Chem. Inf. Modella. 59:1728–42, 2019.

Tanguay-Sela, M., Benrimoh, D., Perlman, K., Israel, S., Mehltretter, J., Armstrong, C., Fratila, R., Parikh, S., Karp, J.,
Heller, K. e Vahia, I. 'Evaluating the Usability and Impact of an Artificial Intelligence-Powered Clinical Decision Support
System for Depression Treatment', Biological Psychiatry, 87(9), p.S171, 2020.

The Assessment List for Trustworthy Artificial Intelligence (ALTAI) for Self-Assessment, ALTAI, Commissione europea
2020. https://op.europa.eu/es/publication-detail/-/publication/73552fcd-f7c2-11ea-991b , 01aa75ed71a1

The Assessment List for Trustworthy Artificial Intelligence, https://altai.insight-centre.org, accesso a novembre 2021.

The World Bank, "Tasso di mortalità materna (stima modellata, per 100.000 nati vivi) – Unione europea", https://
data.worldbank.org/indicator/SH.STA.MMRT?locations=EU, ultimo accesso dicembre 2021.

Tjoa, E. e Guan, C. "Un sondaggio sull'intelligenza artificiale spiegabile (xai): Toward medical xai", IEEE Transactions on
Neural Networks and Learning Systems, 2020.

Plate D, Zepeda-Lugo CA, Tortorella GL, Baez-Lopez YA, Lemon-Romero J, Alvarado-Iniesta A, Rodriguez Borbon MI.
"Effetti dell'assistenza sanitaria snella sul flusso di pazienti: una revisione sistematica", Value Health. 23(2):260-
273, 2020.

66
Machine Translated by Google

Intelligenza artificiale in sanità

Tomašev N, Glorot X, Rae JW, Zielinski M, Askham H, Saraiva A, et al. "Un approccio clinicamente applicabile alla previsione continua
di futuri danni renali acuti", Nature. 572(7767):116–9, 2019.

Topol, EJ, "Medicina ad alte prestazioni: la convergenza dell'intelligenza umana e artificiale" Nature Medicine, 25(1), 44–56, 2019.

TRIPOD, www.tripod-statement.org, accesso a novembre 2021.

Tutt, A.. "Una FDA per gli algoritmi", Admin. L. Rev., 69, p.83, 2017.

Food and Drug Administration (FDA) degli Stati Uniti. Quadro normativo proposto per le modifiche al software basato su intelligenza
artificiale/apprendimento automatico (AI/ML) come dispositivo medico (SaMD), 2019.

Food and Drug Administration (FDA) degli Stati Uniti, "Quadro normativo proposto per le modifiche al software basato su intelligenza
artificiale/apprendimento automatico (AI/ML) come dispositivo medico (SaMD) - Documento di discussione e richiesta di feedback".

Food and Drug Administration (FDA) degli Stati Uniti. Software basato su intelligenza artificiale/apprendimento automatico (AI/ML)
come dispositivo medico (SaMD), piano d'azione 2021

Organizzazione delle Nazioni Unite per l'educazione, la scienza e la cultura (UNESCO). Intelligenza artificiale e uguaglianza di
genere: risultati chiave del dialogo globale dell'UNESCO, 2020.

Notizie delle Nazioni Unite. "Sono necessarie più donne e ragazze nelle scienze per risolvere le più grandi sfide del mondo", febbraio
2019. https://news.un.org/en/story/2019/02/1032221

Viceconti, M, Pappalardo, F., Rodriguez, B., Horner, M., Bischoff, J. Musuamba Tshinanu, F. "Prove in silico: verifica, validazione e
quantificazione dell'incertezza dei modelli predittivi utilizzati nella valutazione normativa dei prodotti biomedici", Metodi 185; 120-127,
2021.

Vijayan V, Connolly J, Condell J, McKelvey N e Gardiner P. Revisione dei dispositivi indossabili e considerazioni sulla raccolta dei
dati per la salute connessa. Sensori. 2021; 21(16): 5589.

Vyas, DA, et al. "Nascosto in bella vista: riconsiderare l'uso della correzione della razza negli algoritmi clinici",
The New England Journal of Medicine (383), pp. 874-882., 2020.

Scommessa TD, Woo CW. "Imaging di biomarcatori e biotipi per la depressione", Nat Med. 23(1):16-17, 2017.

Walsh CG, Ribeiro JD, Franklin JC. "Prevedere il rischio di tentativi di suicidio nel tempo attraverso l'apprendimento automatico", Clin
Psychol Sci; 5, 457–469, 2017.

Wanless D. "Garantire una buona salute per l'intera popolazione", HM Treasury; 2004.

Westergaard, D., Moseley, P., Sørup, FKH, Baldi, P. e Brunak, S. "Analisi a livello di popolazione delle differenze nei modelli di
progressione della malattia negli uomini e nelle donne", Nature communications, 10(1), pp.1-14, 2019.

Whitby B. "Automazione della medicina in modo etico", In: Pontier M (a cura di) Rysewyk Machine Medical Ethics (Sistemi intelligenti,
controllo e automazione: scienza e ingegneria). Springer, Svizzera, 2015.

Wiggers, K. "La ricerca sull'intelligenza artificiale di Google per la previsione del cancro al seno è inutile senza trasparenza, dicono i
critici", VentureBeat, 14 ottobre 2020. https://venturebeat.com/2020/10/14/googles-breast-cancer-predicting ai-research-is-useless-
without-transparency-critics-say/.

Williams, R. "La mancanza di trasparenza nello studio di screening del cancro al seno dell'IA" potrebbe portare a studi clinici dannosi
", affermano gli scienziati", iNews UK, 14 ottobre 2020.

Wolff, J., Pauling, J., Keck, A. e Baumbach, J. "L'impatto economico dell'intelligenza artificiale nell'assistenza sanitaria: revisione
sistematica", Journal of Medical Internet Research, 22(2), p.e16866, 2020.

Wood, A., Najarian, K. e Kahrobaei, D. "Crittografia omomorfica per l'apprendimento automatico in medicina e bioinformatica", ACM
Computing Surveys (CSUR), 53(4), pp.1-35, 2020.

67
Machine Translated by Google

STOAA | Panel per il futuro della scienza e della tecnologia

Organizzazione Mondiale della Sanità (OMS). La depressione in Europa: fatti e cifre, 2021a. https://www.euro.who.int/en/health-
topics/noncommunicable-diseases/mental health/news/news/2012/10/depression-in-europe/
depression-in-europe-facts-and-cifre

Organizzazione Mondiale della Sanità (OMS). Etica e governance dell'intelligenza artificiale per la salute: guida dell'OMS,
2021b.

Organizzazione Mondiale della Sanità (OMS). Strategia globale sulle risorse umane per la salute: forza lavoro 2030, Ginevra,
2016. https://www.who.int/hrh/resources/pub_globstrathrh-2030/en/

Xu, W. "Verso l'IA centrata sull'uomo: una prospettiva dalle interazioni uomo-computer", 26(4), pp.42-46, 2019.

Yang, G., Ye, Q. e Xia, J. 'Unbox the Black box for the Medical Explainable AI via Multi-modal and Multi center Data Fusion: A
Mini-Review, Two Showcases and Beyond' ArXiv, abs/2102.01998, 2021.

Yazdavar AH, Mahdavinejad MS, Bajaj G, Romine W, Sheth A, Monadjemi AH, Thirunarayan K, Meddar JM, Myers A, Pathak
J, Hitzler P. 'Analisi multimodale della salute mentale nei social media', PLoS One; 15(4):e0226248, 2020.

Yu, KH e Kohane, IS "Inquadrare le sfide dell'intelligenza artificiale in medicina", BMJ Quality & Safety, 28(3), pp.238-241, 2019.

Zange L, Muehlberg F, Blaszczyk E, Schwenke S, Traber J, Funk S e Schulz-Menger J. "Quantificazione nella risonanza
magnetica cardiovascolare: accordo di software di tre diversi fornitori sulla valutazione della funzione ventricolare sinistra,
flusso 2D e mappatura parametrica", Journal of Cardiovascular Magnetic Resonance; 21:12, 2019.

Zech, JR, Badgeley, MA, Liu, M., Costa, AB, Titano, JJ e Oermann, EK "Prestazioni di generalizzazione variabili di un modello
di apprendimento profondo per rilevare la polmonite nelle radiografie del torace: uno studio trasversale", PLoS Medicine,
15(11), p.e1002683, 2018.

Zhang BH, Lemoine B, Mitchell M. 'Mitigazione dei pregiudizi indesiderati con l'apprendimento contraddittorio', In Proceedings
of the 2018 AAAI/ACM Conference on AI, Ethics, and Society, pp. 335-340, 2018.

Zhang L, Tan J, Han D, Zhu H. 'Dall'apprendimento automatico all'apprendimento profondo: progressi nell'intelligenza artificiale
Droga
per la scoperta razionale di farmaci. Discov. Oggi 2017.
; 22(11):1680–85,

Zhao L, Wang W, Sedykh A, Zhu H. "Errori sperimentali nei set di modelli QSAR: cosa possiamo fare e cosa non possiamo
fare", ACS Omega, 2:2805–12, 2017.

Zhu H, Zhang J, Kim MT, Boison A, Sedykh A, Moran K. "Big data nella ricerca sulla tossicità chimica: l'uso di test di screening
ad alto rendimento per identificare potenziali sostanze tossiche", Chem. Ris. Tossicolo; 27:1643–51, 2014.

Zhu H. "Modellazione di Big Data e Intelligenza Artificiale per la scoperta di farmaci", Annu Rev Pharmacol Toxicol. 6 gennaio;
60:573-589, 2020.

68
Machine Translated by Google

Q
I
Negli ultimi anni, l'uso dell'intelligenza artificiale (AI) in
medicina e sanità è stato elogiato per le grandi promesse
che offre, ma è stato anche al centro di accese polemiche.
Questo studio offre una panoramica di come l'intelligenza
artificiale può beneficiare l'assistenza sanitaria futura, in
particolare aumentando l'efficienza dei medici, migliorando
la diagnosi e il trattamento medico e ottimizzando
l'allocazione delle risorse umane e tecniche.

Il rapporto identifica e chiarisce i principali rischi clinici,


sociali ed etici posti dall'IA nell'assistenza sanitaria, in
particolare: potenziali errori e danni ai pazienti; rischio di
parzialità e aumento delle disuguaglianze sanitarie;
mancanza di trasparenza e fiducia; e vulnerabilità all'hacking
e alle violazioni della privacy dei dati.

Lo studio propone misure di mitigazione e opzioni politiche


per ridurre al minimo questi rischi e massimizzare i benefici
dell'IA medica, compreso il coinvolgimento di più parti
interessate per tutta la durata della produzione dell'IA,
maggiore trasparenza e tracciabilità, convalida clinica
approfondita degli strumenti di intelligenza artificiale e
formazione e educazione dell'IA sia per i medici che per i cittadini.

Questa è una pubblicazione dell'Unità di previsione scientifica (STOA)


EPRS | Servizio di ricerca del Parlamento europeo

Il presente documento è preparato e indirizzato ai deputati e al personale del Parlamento


europeo come materiale di riferimento per assisterli nel loro lavoro parlamentare. Il contenuto del
documento è di esclusiva responsabilità dei suoi autori e qualsiasi opinione ivi espressa non deve
essere considerata come una posizione ufficiale del Parlamento.

ISBN 978-92-846-9456-3 | doi: 10.2861/568473 | QA-07-22-328-IT-N

Potrebbero piacerti anche