Sei sulla pagina 1di 251

Assistenza

sanitaria e intelligenza
artificiale
(Grandi Sfide - Salute)

LEZIONE 1 – Prof.ssa Vera Tripodi
INTRODUZIONE ALL’ETICA DELLA TECNOLOGIA E DELL’INGEGNERIA

Perché la tecnica è oggetto dell’etica? Perché un’etica delle
tecniche?
RISPOSTA POSSIBILE:

“La tecnica è esercizio di potere umano, vale a dire è una forma


dell’agire, e ogni agire umano è esposto a un esame
morale” (Jonas)

“E’ possibile usare lo stesso potere sia a fin di bene che di


male, per cui esercitandolo si possono osservare o violare
norme etiche” (Jonas)
Perché un’etica della tecnologia?

l’esigenza di ricucire lo strappo “crociano”


tra umanesimo e scienza

è necessario un approccio interdisciplinare per studiare le grandi


sfide del nostro tempo e formare professionisti più consapevoli degli
aspetti etici, ambientali, sanitari, politici e sociali della tecnologia
PROBLEMI E TEMI

La scienza deve essere libera da valori morali e responsabilità?

Può la ricerca rendersi colpevole? Può evitare la colpa?

Robert Oppenheimer disse dopo Hiroshima: la scienza ha conosciuto il peccato

Si riferiva alla fisica nucleare e al


suo contributo alla creazione della
bomba atomica
IL TECNOSCIENTISMO

Il potere della tecnica come “minaccia” per l’umano e il problema del


“limite”: la tecnica consente la manipolazione della vita e della vita
umana in particolare.

La tesi secondo cui, non essendo mossa da


puri interessi intellettuali e conoscitivi, la
TECNOSCIENTISMO
tecnoscienza finirebbe per essere succube
dell’imperativo tecnologico per il quale “si
deve fare tutto ciò che è fisicamente e
tecnicamente possibile fare”

Hans Jonas: la crescente tecnicizzazione


porterà a veri e propri disastri
Perché un’etica per l’ingegneria?
Si potrebbe così rispondere:

* L'ingegneria è una professione importante. Come membri di questa


professione, gli ingegneri dovrebbero esibire i più alti standard di onestà e
integrità.

* L'ingegneria ha un impatto diretto e vitale sulla qualità della vita di tutte le


persone. Di conseguenza, i servizi forniti dagli ingegneri richiedono onestà,
imparzialità, correttezza ed equità e devono essere dedicati alla protezione della
salute pubblica, della sicurezza e del benessere.


* Gli ingegneri devono comportarsi secondo uno standard di comportamento
professionale che richiede l'adesione ai più alti principi di condotta etica.

Gli ingegneri esercitano una professione che riveste una particolare
importanza perché riguarda in parte temi fondamentali per la vita e la
sostenibilità:

– sicurezza

– inquinamento

– sfruttamento dell’energia

– salute pubblica

……….
Gli articoli della Costituzione Italiana:

- art. 4, comma 2: “ogni cittadino ha il dovere di svolgere secondo le


proprie possibilità e la propria scelta un’attività o una funzione che
concorra al progresso materiale o spirituale della società”

- art. 9: "la Repubblica promuove lo sviluppo della cultura e la ricerca


scientifica e tecnica. Tutela il paesaggio e il patrimonio storico e artistico
della Nazione”.

- art. 41, commi 1-2:


“l’iniziativa economica privata è libera. Non può svolgersi in contrasto con
l’utilità sociale o in modo da recare danno alla sicurezza, alla libertà e alla
dignità umana”
Ordine degli Ingegneri della Codice etico e deontologico:
Provincia di Milano e UNI(Ente “promuovere la diffusione della cultura
Italiano di Normazione) dell’integrità e lo sviluppo del
ragionamento etico dei professionisti”

SCOPO DI QUESTA PARTE DEL CORSO



stimolare chi andrà a svolgere questa professione a ragionare su tematiche
etiche e sviluppare una propria cultura dell’integrità. Presentare ipotetiche
situazioni di incertezza decisionale che un ingegnere (o un’ingegnera) può
dover affrontare durante la sua vita professionale e per le quali deve
decidere quale comportamento tenere.

mostrare il prezioso contributo che la filosofia può dare a inquadrare le
questioni etiche che l’innovazione e la progettazione tecnologica sollevano.


Qual è il contributo che la filosofia, e in particolare l’etica, può dare
alla progettazione del futuro e all’innovazione tecnologica?

Che ruolo gioca la filosofia nello sviluppo delle nuove tecnologie (come
droni, macchine senza conducente, robot)?

Le vetture a guida autonoma o i dispositivi digitali (come gli
smartwatch) che registrano la pressione arteriosa e il battito
cardiaco pongono dilemmi morali?

Che impatto hanno le tecnologie dell’informazione e i big data
sulla nostra privacy?

La tecnologia prenderà davvero il sopravvento sull’umanità?

Quali sarebbero i presunti mali della tecnica e in cosa
consisterebbe la sua “strapotenza”?
Cosa ostacola un’azione responsabile nel contesto di un processo
decisionale?

Cosa vuol dire essere responsabile per un esperto, un tecnico?




C’è una differenza tra essere responsabile per sé stesso ed esserlo
nei confronti degli altri?


Cosa vuol per un tecnico (come un ingegnere) non aver agito in
maniera responsabile?

PARTIAMO DA TRE CASE STUDIES…..

Citigroup Center Space Shuttle Challenger

Macchina a guida autonoma


Citigroup Center È uno dei più alti grattacieli di New York
City inaugurato nel 1977: ha 59 piani, è
alto 279 metri, ha il tetto spiovente e la
base del grattacielo non è a livello della
terra ma è sollevata di 35 metri.

È stato disegnato dall'architetto Hugh
Stubbins e dall'ingegnere strutturale
William LeMessurier
Citigroup Center Crisi del 1978

Nel 1978 Diane Hartley scoprì che, a
causa di un errore di progetto e di
modifiche in corso d'opera, il grattacielo
non era strutturalmente solido in
determinate condizioni.

Come affrontare il problema?

Rendere pubblico il problema (rovina per


la reputazione di LeMessuriere, panico nel
caso un uragano avesse colpito la città), o
gestire segretamente il problema?
Citigroup Center

Per i seguenti tre mesi durante la notte


squadre di operai operarono per
rafforzarne l'integrità strutturale
dell’edificio.

Durante i lavori l'uragano Ella si diresse verso


la città. Tuttavia, prima di colpire la costa,
l'uragano cambio direzione e non colpì la
città.

La notizia dei problemi strutturali dell'edificio


divennero noti solo nel 1995 grazie a un
racconto pubblicato dal New Yorker.
Da una prospettiva etica: come giudicare la
decisione e il comportamento di LeMessurier?

Responsabilità professionale?

La sicurezza pubblica?

Disinformazione?

Avanzamento e scambio della conoscenza


professionale?
Space Shuttle Challenger la mattina del 28 gennaio 1986 lo Space
Shuttle Challenger fu distrutto dopo 73
secondi di volo.

Ritardi del lancio


Impossibile la fuga dell'equipaggio

Indagini

Causa dell’incidente: un guasto a una


guarnizione, un O-ring, nel segmento inferiore
del razzo a propellente solido (SRB) destro. La
rottura della guarnizione provocò una
fuoriuscita di fiamme dall'SRB che causò un
cedimento strutturale del serbatoio esterno
contenente idrogeno e ossigeno liquidi.

Il cedimento venne causato dalla combinazione della cattiva progettazione e delle


basse temperature.
Space Shuttle Challenger

Gli ingegneri del costruttore Morton


Thiokol degli SRB erano a conoscenza
del problema e suggerirono di non
effettuare il lancio

Dubbi sulla "cultura della sicurezza" della


NASA
Da La Repubblica 20 marzo 2018

Di chi è la responsabilità della morte della ciclista?


Cosa vuol dire essere responsabile per un(a) progettista?
Assistenza sanitaria e intelligenza
artificiale
(Grandi Sfide - Salute)

LEZIONE 2 – Prof.ssa Vera Tripodi
Sommario della lezione:

1. QUALCHE INFORMAZIONE GENERALE
2. COS’È UN DILEMMA ETICO?

1. Qualche informazione generale
– Ricevimento online:

la cosa migliore è scrivermi per email per fissare un appuntamento.


Potete scrivermi per qualunque dubbio o chiarimento, rispondo
sempre entro due giorni. Se così non fosse, vi prego di re-inviarmi
l’email.

Indirizzo: vera.tripodi@polito.it



– Materiale del corso:

Potete scambiarvi gli appunti e il materiale delle lezioni sarà a
disposizione on-line. Considerate però che non è immediato
comprendere tutto, trattandosi di ppt saranno necessariamente un
po’ schematici.

Questa parte del corso è divisa in due parti


1)  Prima parte: si prenderanno in esame alcuni paradigmi morali
dell'etica applicata (consequenzialismo, etica deontologica ed etica
della virtù); i principi fondamentali dell’etica biomedica (giustizia,
autonomia, benevolenza e non maleficenza).


2)  Seconda parte: si affronteranno questioni etiche riguardanti casi
specifici tratti dall'etica della tecnologia con particolare riferimento
all'uso dell’intelligenza artificiale nell’assistenza sanitaria.

Qualche informazione su di me…..
Sono una filosofa morale, ricercatrice (Rtd-B) presso il DET del Politecnico di Torino.
Il mio profilo, le mie competenze…..

Ho conseguito il dottorato di ricerca in Logica ed Epistemologia


presso la Sapienza Università di Roma. Prima di assumere
l'incarico al Politecnico, ho lavorato come ricercatrice di tipo A
(Rtd-A) presso il Dipartimento di Filosofia dell'Università degli
Studi di Milano "La Statale". In precedenza, ho svolto la mia
attività di ricerca come post-doc presso l'Università di
Barcellona, l'Università di Oslo e la Columbia University (New
York).

Sono specializzata in etica della tecnologia, bioetica, filosofia
ed etica femminista, ontologia sociale. Sono socia fondatrice e
vice presidente di SWIP ITALIA (The Society for Women in
Philosophy – Italy).
Il mio ultimo libro – curato insieme a Enrico Terrone – è Being and
Value in Technology (Palgrave 2022).
Dalla lezione precedente…
Cosa ostacola un’azione responsabile nel contesto di un processo
decisionale?

Cosa vuol dire essere responsabile per un esperto, un tecnico?




C’è una differenza tra essere responsabile per sé stesso ed esserlo
nei confronti degli altri?


Cosa vuol per un tecnico (come un ingegnere) non aver agito in
maniera responsabile?

PARTIAMO DA TRE CASE STUDIES E UN ESPERIMENTO MENTALE…..

Citigroup Center Space Shuttle Challenger

Macchina a guida autonoma

Il violinista
Citigroup Center È uno dei più alti grattacieli di New York
City inaugurato nel 1977: ha 59 piani, è
alto 279 metri, ha il tetto spiovente e la
base del grattacielo non è a livello della
terra ma è sollevata di 35 metri.

È stato disegnato dall'architetto Hugh
Stubbins e dall'ingegnere strutturale
William LeMessurier
Citigroup Center Crisi del 1978

Nel 1978 Diane Hartley scoprì che, a
causa di un errore di progetto e di
modifiche in corso d'opera, il grattacielo
non era strutturalmente solido in
determinate condizioni.

Come affrontare il problema?

Rendere pubblico il problema (rovina per


la reputazione di LeMessuriere, panico nel
caso un uragano avesse colpito la città), o
gestire segretamente il problema?
Citigroup Center

Per i seguenti tre mesi durante la notte


squadre di operai operarono per
rafforzarne l'integrità strutturale
dell’edificio.

Durante i lavori l'uragano Ella si diresse verso


la città. Tuttavia, prima di colpire la costa,
l'uragano cambio direzione e non colpì la
città.

La notizia dei problemi strutturali dell'edificio


divennero noti solo nel 1995 grazie a un
racconto pubblicato dal New Yorker.
Da una prospettiva etica: come giudicare la
decisione e il comportamento di LeMessurier?

Responsabilità professionale?

La sicurezza pubblica?

Disinformazione?

Avanzamento e scambio della conoscenza


professionale?
Space Shuttle Challenger la mattina del 28 gennaio 1986 lo Space
Shuttle Challenger fu distrutto dopo 73
secondi di volo.

Ritardi del lancio


Impossibile la fuga dell'equipaggio

Indagini

Causa dell’incidente: un guasto a una


guarnizione, un O-ring, nel segmento inferiore
del razzo a propellente solido (SRB) destro. La
rottura della guarnizione provocò una
fuoriuscita di fiamme dall'SRB che causò un
cedimento strutturale del serbatoio esterno
contenente idrogeno e ossigeno liquidi.

Il cedimento venne causato dalla combinazione della cattiva progettazione e delle


basse temperature.
Space Shuttle Challenger

Gli ingegneri del costruttore Morton


Thiokol degli SRB erano a conoscenza
del problema e suggerirono di non
effettuare il lancio

Dubbi sulla "cultura della sicurezza" della


NASA
Da La Repubblica 20 marzo 2018

Di chi è la responsabilità della morte della ciclista?


2. COS’È UN DILEMMA ETICO?
Quando si presenta?
Una persona si trova di fronte ad un evento critico che impone una scelta
con più opzioni

In cosa consiste?
È una decisione che richiede una scelta tra principi concorrenti.

Conseguenze?
Le decisioni prese avranno comunque un’implicazione (costo) morale per chi
sceglie e per chi le subisce.

Alcuni esempi: è giusto ricorrere ad una menzogna per evitare un disastro? O


fare esperimenti nocivi, e a volte letali, su un uomo o una donna per salvare le
generazioni future? O clonare una persona per ottenere organi e così curarne
molte altre?

Nella Repubblica, Platone ci propone
un dilemma morale riguardante la
giustizia (libro I, V, 331d)

Cefalo propone a Socrate di definire la ‘giustizia’, intesa nei termini di


virtù personale, come «l’essere sinceri e il restituire ciò che si è ricevuto in
pegno».

Socrate respinge però prontamente questa definizione affermando che


«queste stesse azioni si possono compiere a ragione o a torto a seconda
dei casi» e sarebbe sbagliato in alcune circostanze ripagare determinati
debiti.
Ad esempio, è sbagliato restituire un’arma ricevuta in prestito a un
amico che non è più nel pieno possesso delle sue facoltà mentali.
Chi lo facesse, afferma Socrate, sarebbe in torto.

Dunque, ripagare i debiti ha un’importanza morale. Tuttavia, non è


sempre giusto rimborsare i propri debiti.
Socrate fa emergere un conflitto
tra due principi morali: ripagare i
propri debiti e proteggere gli altri
da un pericolo.

Nel conflitto tra i due principi, proteggere gli altri dal pericolo è –
per Socrate – un principio che ha una priorità̀ morale. L’obbligo di
proteggere gli altri dal pericolo ha dunque la precedenza
sull’obbligo di rimborsare i propri debiti restituendo un oggetto
preso in prestito quando il proprietario ne richiede la restituzione.
Altro esempio di dilemma morale: Jean Paul Sartre, L’esistenzialismo è
un umanesimo (1946)

un allievo deve scegliere se occuparsi di


sua madre sofferente (che ha già perso il
figlio maggiore durante l’offensiva
tedesca del 1940) o partire
per Londra e unirsi alle Forze Francesi di
Liberazione (vendicando
così anche suo fratello)

due obblighi in conflitto: il dovere di un


figlio di non abbandonare la madre e il
dovere di dare il suo contributo alla
lotta contro un terribile aggressore
SOFOCLE

Antigone è combattuta tra il dovere di


organizzare la sepoltura di suo fratello
Polinice e il dovere di obbedire all’editto
di Creonte (il sovrano di Tebe) che ne
vieta la sepoltura

Antigone deve scegliere: dovrebbe fare ciascuna di queste due cose,


tuttavia non può fare entrambe
DUE CASI: IL PROBLEMA DEL CARRELLO FERROVIARIO E IL CASO DEL TRAPIANTO
Caso 1: «Problema del carrello ferroviario» (trolley problem) – detto anche
del «Ramo deviato» o «Dilemma del carrello» – formulato per la prima da
Philippa Foot in un noto articolo sul tema dell’aborto nel 1967.
Problema del carrello ferroviario

Vi trovate in prossimità di un binario
e assistite a questa drammatica
scena: vedete un treno che sfreccia
senza guida. Il macchinista ha perso
conoscenza e il treno sta per
investire cinque persone che sono
legate ai binari. Se nessuno
interviene, i cinque saranno travolti
e uccisi. Il treno si sta però dirigendo
verso uno scambio e accanto a voi
c’è una leva. Potete deviare su un
binario secondario la corsa del treno Philippa Foot
muovendo la leva e così da salvare i (1920-2010)
cinque. Sul binario secondario
tuttavia è legata una persona.
Deviare la direzione del treno
CHE COSA FATE?
equivale inevitabilmente a uccidere
questa persona.
Caso 1: Problema del carrello ferroviario
IL CASO DI TRUMAN: autorizzando l'uso della bomba atomica
contro il Giappone, aveva, sì, fatto cessare la guerra ma a
prezzo della vita di centinaia di migliaia di innocenti

il quesito fondamentale: lanciando la bomba, Truman


aveva l'intenzione, anche se non prioritaria, di uccidere
quegli innocenti che morirono o invece aveva previsto
che sarebbero morti degli innocenti come conseguenza
della propria decisione?
Judith Jarvin Thomson L’Uomo Grasso (1985)
(1929–2020)
Una persona si trova su un cavalcavia
che si affaccia su un binario
e vede un treno che si sta avvicinando
fuori controllo, perché il
macchinista ha perso i sensi, verso
cinque persone legate ai binari che
per questo non possono fuggire ed
evitare il treno. Sul cavalcavia, vi
è anche un uomo grasso che guarda il
treno appoggiato al parapetto.
Quest’uomo è così robusto che,
cadendo sui binari, fermerebbe il
vagone salvando la vita dei cinque e
inevitabilmente morirebbe. Si
dovrebbe buttare giù l’uomo grasso e
salvare la vita ai cinque?
Caso 2

È moralmente permesso buttar giù l’uomo grasso in modo che


il resto del gruppo si salvi?
Analogie e differenze trai due esperimenti:
1. In entrambi, omettere l’azione causerebbe la morte di cinque persone.
2. nel caso 1, la morte della persona che sta sul binario laterale è un effetto
secondario: non corrisponde all’intenzione di chi manovra la leva.
3. nel secondo caso, l’azione è diretta a causare un danno fisico ed irreparabile
all’uomo grasso.
4. Il primo caso è impersonale: tirare la leva è un fatto che implica una
mediazione tecnico-strumentale tra i soggetti; nel secondo caso è personale, in
quanto buttare giù fisicamente una persona ha un forte impatto emozionale.

Il PUNTO di FOOT

Le nostre azioni non hanno soltanto conseguenze (buone) da noi
espressamente volute e desiderate (e quindi intenzionali), ma
possono avere anche conseguenze cattive non intenzionali, ma che
prevediamo che accompagneranno quelle volute. In questo caso è
possibile scegliere tra compiere l’azione o non compierla, dopo
aver fatto un bilancio tra conseguenze positive e negative.
La Dottrina del Doppio Effetto (elaborata da Tommaso) pone una differenza nell’eseguire
un’azione

ciò che è non volontario ciò che è intenzionale


conseguenze non volute (che conseguenze intese
possono essere cattive)

Nel caso della Leva, non si Nel caso dell’Uomo Grasso: è


intende uccidere l’uomo necessario che l’uomo cada tra il
legato ai binari: è una vagone ed i cinque innocenti legati
conseguenza negativa di un ai binari. Inoltre l’uomo grasso non
gesto volontario, quello di si sacrifica, precipitando di propria
azionare il cambio. iniziativa, ma è spinto da un agente
morale, che intende ucciderlo per
salvare gli altri.

Il caso del Trapianto

Immaginate che ci siano cinque pazienti
malati ricoverati in ospedale in attesa di un
trapianto urgente di organi. Due di questi
aspettano un rene, altri due un polmone e
uno è in attesa di un cuore. Moriranno oggi
stesso se non si trovano in tempo organi
compatibili.
Un giovane in perfetto stato di salute e
innocente si reca in ospedale per la sua
visita annuale di controllo. I suoi organi
sono compatibili con i pazienti malati.
Dovrebbe un chirurgo dell’ospedale
ucciderlo in modo da utilizzare i suoi organi Thomson
per salvare la vita dei cinque in
attesa di un trapianto?
(1929–2020)

Cosa fate? Non fate nulla e lasciate morire cinque persone, oppure
sacrificate il paziente sano per salvare le altre?
Il caso del Trapianto è simile a quello dell’ Uomo Grasso. A differenza del
problema della leva, anche qui l’azione è rivolta non nei confronti di un
oggetto, ma di un essere umano (quindi personale).

In questo caso si intende uccidere il paziente, a


differenza che nel caso della Leva. Infatti in
quest’ultimo, se vivessimo nel «migliore dei mondi
possibili» il malcapitato legato al binario potrebbe
anche trovare un modo per svincolarsi dalla corda e
fuggire. In questo caso il problema sarebbe risolto
senza alcuno spargimento di sangue. Questo
ragionamento non è possibile nel caso del Trapianto.
FOOT DISTINGUE TRA

doveri positivi doveri negativi

la beneficialità (intesa come non interferenza


disposizione ad aiutare gli altri) con le vite altrui
(compresa anche
l’interferenza
«estrema»:
l’omicidio)

Nel caso del Trapianto, nonostante il chirurgo abbia il dovere positivo di salvare
le vite di cinque pazienti malati, si presenta un conflitto con il dovere negativo
che suggerisce di non far del male ad un paziente innocente e sano. Inoltre, nel
caso della Leva non si fa altro che deviare una minaccia già in movimento (il
vagone), mentre nel Trapianto, uccidendo un paziente si introduce una minaccia
totalmente nuova.
Assistenza sanitaria e intelligenza
artificiale
(Grandi Sfide - Salute)

LEZIONE 3 – Prof.ssa Vera Tripodi
Sommario della lezione:

1. TRE APPROCCI AL PROCESSO DECISIONALE ETICO
2. L’ETICA DELLA SACRALITÀ DELLA VITA, L’ETICA DELLA QUALITÀ
DELLA VITA
3. ETICA DEONTOLOGICA ED ETICA CONSEQUENZIALISTA
4. RIVOLUZIONE BIOMEDICA
5. IL TECNOSCENTISMO


Dalla lezione precedente…
PARTIAMO DA TRE CASE STUDIES E UN ESPERIMENTO MENTALE…..

Citigroup Center Space Shuttle Challenger

Macchina a guida autonoma


1. TRE APPROCCI AL PROCESSO DECISIONALE ETICO
Concetto chiave:
Conseguenze
Teoria dell’utilitarismo sociale:
è giusto compiere un atto che, tra le alternative,
massimizza la felicità complessiva. Misurata
tramite l’utilità.

Massima: Guarda alle conseguenze dell’atto.


Comportati in modo tale da minimizzare il
danno e le sofferenze e per massimizzare la
felicità e il benessere.

Jeremy Bentham
(1748 –1832)

Esempi: mentire non è per forza sbagliato, se si tratta di difendere una persona cara.
L’uso della bomba atomica non è per forza sbagliato se può porre fine a una guerra e
salvare un numero consistente di vite umane.

Concetto chiave: ATTO

Teoria: non sono le


conseguenze che un atto ha a
determinare se una azione è
giusta o sbagliata. Alcune azioni
sono intrinsecamente giuste o
sbagliate.

Massima: “Agisci soltanto secondo


la massima che, al tempo stesso,
Immanuel Kant (1724-1804) puoi volere che divenga una legge
universale”

Esempi: la tortura è un’azione intrinsecamente sbagliata anche se la conseguenza di


quell’azione fosse quella di salvare molte vite. Torturare è sbagliato a prescindere
dalle conseguenze. Mentire è sbagliato a prescindere dalle conseguenze.

diritti umani\dignità umana:

l’obbligo morale di trattare gli esseri
umani secondo alcuni parametri e
standard. In modo da non infrangere
l’esercizio della ragione, della libertà,
dell’autonomia.

Dobbiamo esaminare l’atto e chiederci:
ha la capacità di infrangere la dignità
altrui?

Massima: “agisci in modo da trattare l’umanità, sia nella tua persona sia in
quella di ogni altro, sempre come fine e mai semplicemente come mezzo”.

I principi sono tali se si applicano universalmente.

Concetto chiave: AGENTE

Etica delle virtù: La questione


fondamentale non è “cosa è giusto fare?”
bensì “che tipo di persona dovrei essere?”

Le qualità dell’agente: eccellenza, cura del


bene comune, imparzialità, centralità del
prossimo, disponibilità, verso cui dovremmo
tutti tendere. Le virtù sono tratti caratteriali
che appartengono ad una élite che
promuove ideali legali al bene comune.
Aristotele
(384 a.C.-322 a. C.)

Essere nel giusto non ha a che fare con l’obbligatorietà dell’azione. Per essere nel giusto
bisogna essere un certo tipo di persona, non basta semplicemente agire in un certo
modo.
Quando le persone acquisiscono tali
tratti caratteriali (gentilezza,
generosità, coraggio, onestà) sono più
capaci di regolare le emozioni e di
assumere decisioni.

Un’azione è buona solo se proviene da un


agente che mostra intenzioni virtuose.

Aristotele
(384 a.C.-322 a. C.)

L’attenzione deve essere rivolta su chi si agisce


2. L’ETICA DELLA SACRALITÀ DELLA VITA, L’ETICA DELLA QUALITÀ DELLA VITA
Nella tradizione occidentale, la morale di gran lunga prevalente è stata di tipo
deontologico

Kant
la categoricità è la caratteristica distintiva del dovere morale: l’imperativo
morale è categorico, ossia vale sempre e indefettibilmente

prosegue la tradizione deontologica per la quale il nucleo forte dell’etica è


costituito da divieti assoluti, ossia divieti che non ammettono mai alcuna
eccezione per nessuna ragione

Maurizio Mori, Manuale di bioetica, cit.


DUE TIPI DI DOVERI

Assoluti Prima facie (che vincolano “a prima


vista” o di “primo acchito”)

Maurizio Mori, Manuale di bioetica, cit.


ETICA DELLA SACRALITÀ DELLA VITA (UMANA)

La prospettiva morale per la quale la vita umana è intangibile e non può
essere mai violata o manipolata

impone divieti assoluti

Esempi: il divieto di contraccezione, di aborto, di fecondazione assistista, di


eutanasia

Maurizio Mori, Manuale di bioetica, cit.


ETICA DELLA QUALITÀ DELLA VITA (UMANA)

il valore centrale è appunto la qualità della vita intesa come benessere e/o
come rispetto dell’autonomia delle persone

La scelta autonoma della persona è il criterio decisivo e determinante per le


scelte morali

NON impone divieti assoluti

Maurizio Mori, Manuale di bioetica, cit.


Il contrasto tra sacralità e qualità della vita

La messa in dubbio dell’etica della sacralità della vita e il passaggio all’etica della
qualità della vita è un fenomeno molto recente determinato dalla rivoluzione
interna alla medicina e all’etica medica

Messa in discussione di un paradigma: il nostro modo di vedere è caratterizzato da


“schemi” o “forme” che indirizzano la visione in direzioni diverse facendosi così vedere cose
diverse.

Maurizio Mori, Manuale di bioetica, cit.


1.  Il cambiamento dell’attenzione visiva sta alla base del Gestalt switch (salto
gestaltico), ossia il passaggio dall’una all’altra immagine
2.  Non si riesce a vedere le due immagini contemporaneamente
3.  Il cambiamento di paradigma comporta una riorganizzazione della realtà e un
diverso modo di vedere e sentire il mondo.
4.  La proposta di un nuovo paradigma incontra resistenze e opposizioni

Maurizio Mori, Manuale di bioetica, cit.


3. ETICA DEONTOLOGICA ED ETICA CONSEQUENZIALISTA
TEORIE DI ETICA DEONTOLOGICA

Caratterista fondamentale:

i doveri/divieti valgono ex ante, ossia da prima dell’azione e delle
eventuali conseguenze causate dall’azione, la quale è doverosa perché
ingiusta in sé

La ragione che giustifica il divieto non è il danno, ma il fatto che l’azione è


considerata ingiusta in sé

Maurizio Mori, Manuale di bioetica, cit.


TEORIE DI ETICA DEONTOLOGICA

Disaccordo tra i deontologici


1. quali e quanti sono i principi da assumere come primi?
2. quali e quanti tipi di azioni sono ingiuste in sé?

Per alcuni, i principi devono Per altri, i principi devono rimandare alla
essere intuitivamente auto- “natura umana” o corrispondono
evidenti all’ordine naturale”

Problema: ciò che appare auto-evidente può mutare negli anni.


Esempio: un tempo appariva auto-evidente il valore della disuguaglianza umana,
oggi invece appare auto-evidente quello dell’uguaglianza.

Maurizio Mori, Manuale di bioetica, cit.


ETICA CONSEQUENZIALISTA

Caratterista fondamentale:
i doveri/divieti valgono ex post, ossia da dopo l’azione, perché è in base
alle conseguenze causate dall’azione che si può stabilire se una data
azione o classe di azioni sia doverosa o vietata.

Scarsa o nessuna importanza all’intenzione dell’agente

Non esistono azioni intrinsecamente sbagliate o ingiuste in sé, ma ciascuna azione è


giusta o ingiusta a seconda che provochi conseguenze positive o negative

Maurizio Mori, Manuale di bioetica, cit.


ETICA CONSEQUENZIALISTA

Disaccordo tra i consequenzialisti:



1. come calcolare le conseguenze?
2. come valutare la bontà/cattiveria delle conseguenze?
3. Chi deve essere il beneficiario del benessere dell’azione giusta che
si deve fare?

Egoismo etico: si deve fare Utilitarismo etico: si deve fare


l’azione che ha conseguenze l’azione che massimizza l’utilità del
benefiche per l’agente maggior numero (benessere sociale)
stesso (e solo per lui)

Problema: si riduce la giustizia a mera prudenza, ossia al calcolo oculato delle


conseguenze

Maurizio Mori, Manuale di bioetica, cit.


4. RIVOLUZIONE BIOMEDICA E LAICITÀ
PLURALISMO ETICO
La presenza di prospettive etiche diverse e contrastanti

IL DISSENSO

Engelhardt: il nostro è un mondo abitato da stranieri morali

Maurizio Mori, Manuale di bioetica, cit.


I codici possibili nel modello minino della sacralità della vita

Supponiamo di avere una teoria formata da tre principi:



PSV (Principio di Sacralità della Vita): il dovere di rispetto assoluto del finalismo
proprio dei processi vitali umani

Pb (Principio di beneficenza, prima facie): il dovere di fare il bene

Pg: (Principio di giustizia, prima facie): il dovere di distribuire equamente i costi e
i benefici
Sono possibili due e solo due codici morali diversi con le seguenti gerarchie:

codice A codice B
PSV PSV
Pb Pg
Pg Pb

Maurizio Mori, Manuale di bioetica, cit.


Nell’etica della sacralità della vita, il principio di sacralità è assoluto e
dunque non ammette eccezioni

I dibattiti e il dissenso riguardano solo i divieti prima facie

C’è uno spazio limitato per il pluralismo etico

Maurizio Mori, Manuale di bioetica, cit.


I codici possibili nel modello minino della qualità della vita

Supponiamo di avere una teoria formata da tre principi:



Pa: (Principio di autonomia, prima facie): il dovere di rispetto delle scelte fatte
dalle persone

Pb (Principio di di beneficenza, prima facie): il dovere di fare il bene

Pg: (Principio di giustizia, prima facie): il dovere di distribuire equamente i costi
e i benefici

codice 1 codice2 codice3 codice4 codice5 codice6


Pb Pb Pg Pg Pa Pa
Pg Pa Pb Pa Pg Pb
Pa Pg Pa Pb Pb Pg

Maurizio Mori, Manuale di bioetica, cit.


Nell’etica della qualità della vita, non ci sono divieti assoluti

Se si amplia la lista dei valori tra cui scegliere, si allargano le preferenze

Vettore e origine del pluralismo etico

Maurizio Mori, Manuale di bioetica, cit.


UN CONTRIBUTO DECISIVO AL PLURALISMO ETICO È STATO DATO DAI PROGRESSI OTTENUTI IN
AMBITO BIOMEDICO E SANITARIO

Questi progressi hanno rimesso in discussione alcuni limiti che fino a pochi
anni fa apparivano naturali, scontati e solidi

la dialisi (1962)

Il trapianto del cuore (1967)


Progressi che
hanno stupito la definizione di “morte cerebrale” (1968)
l’opinione pubblica
la definizione di “stato vegetativo persistente” (1972)

fecondazione in vitro (1978)

diffusione di metodi più sicuri di contraccezione e di


aborto (anni ‘70)

Maurizio Mori, Manuale di bioetica, cit.


La secolarizzazione corrode un fondamentale dato per scontato dalla
tradizione circa la vita, cioè che la vita umana sia sempre buona in sè

la vita è buona o cattiva a seconda della prevalenza di sensazioni positive o negative,


in assenza delle quali non è né buona né cattiva ma semplicemente indifferente.

vita biologica vita biografica


costituita dal solo complesso dei costituita dall’insieme di sensazioni,
processi metabolici e organici; né ricordi, progetti che formano appunto
buona né cattiva, ma indifferente una biografia; può essere buona o cattiva

Non solo le persone umane hanno biografie, ma anche gli animali non umani

Maurizio Mori, Manuale di bioetica, cit.


Con il passaggio dall’etica della sacralità della vita all’etica della qualità della
vita, la laicità è entrata in una nuova fase

In passato, il problema
della laicità riguardava
solo lo Stato e la
legittimità del potere
politico

La breccia di Porta Pia (20 settembre 1870): sancì l'annessione di Roma al Regno
d’Italia e decretò la fine dello Stato Pontificio retto dal papa re.
Oggi, il problema della laicità riguarda anche le questioni bioetiche e familiari

Laico\a è chi afferma non solo l’indipedenza dello Stato da interferenze da


parte dei poteri religiosi, ma ritiene anche che lo Stato debba garantire
l’indipendenza e l’autonomia del cittadino (e della cittadina) ritenuto\a come
unico detentore legittimo\a della sovranità decisionale circa le scelte che
riguardano la propria vita e non danneggiano quella di altri.

Lo Stato deve garantire ai cittadini la libertà di agire secondo l’etica scelta

Maurizio Mori, Manuale di bioetica, cit.


5. IL TECNOSCIENTISMO
IL TECNOSCIENTISMO E L’AMBIVALENZA DEGLI EFFETTI

Il potere della tecnica come “minaccia” per l’umano e il problema del “limite”:
la tecnica consente la manipolazione della vita e della vita umana in particolare.

La tesi secondo cui, non essendo mossa da


puri interessi intellettuali e conoscitivi, la
TECNOSCIENTISMO tecnoscienza finirebbe per essere succube
dell’imperativo tecnologico per il quale “si
deve fare tutto ciò che è fisicamente e
tecnicamente possibile fare”

Hans Jonas: la crescente tecnicizzazione


porterà a veri e propri disastri
Platone
(428/427 a.C.–348/347 a.C.)

La tecnica come corruzione

La scrittura (una forma di


tecnica) è un male, rovina la
memoria
IL MITO DI THEUTH E THAMUS (Fedro, 274C – 275B)

Theuth (divinità) propone a Thamus (sovrano dell’Egitto) di regalare al suo popolo


l'arte della scrittura:

«Questa conoscenza, o re, renderà gli egiziani più sapienti e più capaci di ricordare,
perché con essa si è ritrovato il farmaco della memoria e della sapienza»

Thamus risponde:

«O ingegnosissimo Theuth, c'è chi è capace di creare le arti e chi è invece
capace di giudicare quale danno o quale vantaggio ne ricaveranno coloro che
le adopereranno. […] Infatti, la scoperta della scrittura avrà per effetto di
produrre la dimenticanza nelle anime di coloro che la impareranno, perché
fidandosi della scrittura si abitueranno a ricordare dal di fuori mediante segni
estranei, e non dal di dentro e da se medesimi: dunque, tu hai trovato non il
farmaco della memoria, del richiamare alla memoria»
Fine della scrittura e della registrazione?
Cesare Lombroso
(1835-1909, medico-criminolgo)

Studi sulle conseguenze sociali


di alcune delle nuove tecniche

La bicicletta è pericolosa
socialmente, in quanto aumenta
le possibili cause della
criminalità, conducendo fino
all’omicidio.
«…causa…e strumento del
crimine. Ciò può spiegarsi
per molti modi: per
l’enorme diffusione di
questo meccanismo, non
solo come mezzo di
trasporto e di sollazzo, ma
anche come amminicolo di
guadagno nei record e nelle
rivendite, come occasione
di maggiori rapporti e attriti
fra gli uomini…fa accrescere
sempre più il numero dei
delitti»
Copenhagen è la città
più bicycle friendly

62% della popolazione usa


la bicicletta
L’opposizione alla tecnica è basata sulla convinzione che ci sia una
distinzione netta tra

scienza tecnoscienza

sarebbe “buona”, sarebbe “cattiva”, soggetta agli


disinteressata, interessi e tesa al controllo, al
tesa al sapere dominio e al potere
puro

Maurizio Mori, Manuale di bioetica, cit.


Assistenza sanitaria e intelligenza
artificiale
(Grandi Sfide - Salute)

LEZIONE 4 – Prof.ssa Vera Tripodi
SOMMARIO DELLA LEZIONE:

L’ETICA DELLA TECNICA, IA E ASSISTENZA SANITARIA:

1.  COME CI CUREREMO NEI PROSSIMI ANNI?
2.  CONSENSO INFORMATO E IL PARADIGMA IPPOCRATICO
3.  RIVOLUZIONE DIGITALE: QUADRO GENERALE
4.  RIVOLUZIONE DIGITALE: TEMPO, SPAZIO
5.  RIVOLUZIONE DIGITALE: IDENTITÀ





Dalla lezione precedente…
In Italia….

Una gravidanza a 54 anni

Una gravidanza a 53 anni


Crioconservazione degli ovociti:
il congelamento di ovociti in azoto liquido per conservarli nel tempo
La Repubblica, 10 marzo 2022
1.  Il cambiamento dell’attenzione visiva sta alla base del Gestalt switch (salto
gestaltico), ossia il passaggio dall’una all’altra immagine
2.  Non si riesce a vedere le due immagini contemporaneamente
3.  Il cambiamento di paradigma comporta una riorganizzazione della realtà e un
diverso modo di vedere e sentire il mondo.
4.  La proposta di un nuovo paradigma incontra resistenze e opposizioni

Maurizio Mori, Manuale di bioetica, cit.


1. COME CI CUREREMO NEI PROSSIMI ANNI?
Come ci cureremo nei prossimi mesi? come alcuni di noi si stanno
già curando?
È certamente cambiato il modo in cui ci prendiamo cura della
nostra salute.

Un campo in cui è ormai evidente l’evoluzione tecnologica


nell’archiviazione ed elaborazione di informazioni è quello sanitario.
Tra i dispositivi per la salute che si possono oggi facilmente trovare, ve
ne sono alcuni che possono essere prescritti dai medici come se fossero
pillole o terapie. Per lo più, si tratta di device il cui scopo è quello di
cercare di capire cosa succede al nostro corpo e tenere sotto controllo
certi parametri clinici.

Embrace
(assiste la persona che
soffre di epilessia)
In alcuni casi, l’App salute è in grado di essere anche una
vera e propria terapia digitale, come i farmaci che
assumiamo. Vale a dire, se usata efficacemente, essa può
portare benefici clinici: se si segue un certo protocollo
alimentare o fisico, in linea con le linee guida
scientificamente approvate e sotto stretto controllo medico,
questa tipologia di dispositivi permette di ottenere effetti
clinicamente rilevanti.
Le novità riguardano un po’ tutta la linea della nostra salute dalla
prevenzione alla diagnostica e poi anche la cura.

Prevenzione (Triage digitale)

Diagnostica

Cura e Sperimentazione
PREVENZIONE

Amicomed
aiuta a tenere la pressione
arteriosa sotto controllo
PREVENZIONE

Un’App come allenatore

il ‘Progetto Percorso’: un’App scaricabile su smartphone


progettata per aiutarci a mantenere il cuore sano e migliorare
la condizione cardiovascolare.

l’utente deve inserire i dati richiesti sul proprio stato di salute, per poi
ricevere un programma personalizzato di attività fisica pensato sulle sue
caratteristiche cliniche e preferenze di movimento
PREVENZIONE

One Drop
misura la glicemia e ti
dice come questa sarà
tra 4/6 ore
DIAGNOSTICA

Skin Vision

per valutare con una


foto la pericolosità dei
nei e delle macchie
cutanee.

– dispositivo medico regolamentato e certificato CE.



– permette di scansionare un neo con una semplice foto; poi,
basandosi su un database di 3 milioni di foto, l’utente riceve una
raccomandazione su che cosa fare come step successivo
DIAGNOSTICA (FUTURA)

La nostra voce come


strumento di diagnosi
per alcune patologie

Una sperimentazione in corso presso il Policlinico Tor Vergata, dove i ricercatori


stanno verificando come la voce possa fornire un parametro oggettivo
dell’efficacia delle terapie e dei farmaci, e se l’analisi della voce possa
diagnosticare il Parkinson, nelle sue primissime fasi, e in un prossimo futuro,
analizzare la voce di pazienti con Alzheimer.
DIAGNOSTICA (FUTURA)
Digital Twin

Avatar

per simulare terapie e processi di cura prima di essere poi utilizzate realmente
sul corpo umano. Questa del gemello digitale è una grande frontiera.
CURA

Telemedicina Digital Twin

Pazienti pediatrici (con diabete e fibrosi cistica) monitorati a distanza


Perché è importante questa trasformazione? Quali sono i
vantaggi e quali i rischi da evitare?

Quali saranno i paradigmi della nostra salute nei prossimi
anni?
La medicina del futuro sarà di tipo preventivo, sostengono gli
specialisti.


Le tecnologie digitali, utilizzate in campo sanitario e volte alla
prevenzione, pongono questioni etiche? E se sì, quali?

Coloro che auspicano una maggiore diffusione delle
tecnologie digitali nelle pratiche mediche ritengono che
queste non solo miglioreranno la nostra qualità di vita, ma
renderanno anche il sistema sanitario più democratico e
sostenibile.
Si potrebbe però obiettare che, a ben guardare, i sensori di
questi cerotti e dispositivi raccolgono informazioni e
quantificano dati personali sulla nostra attività giornaliera e
sul nostro stato di salute.

Queste tecnologie digitali accumulano dati su come funziona il


nostro organismo, come mangiamo e come ci muoviamo.
Inoltre, lo sviluppo tecnologico renderà questi oggetti sempre
più connessi tra loro; conseguentemente, tali tecnologie
acquisiranno sempre più informazioni su una serie di aspetti
fondamentali della nostra salute.
Ora, il punto è: a cosa servono tutte queste informazioni?

A fare delle previsioni e trarre inferenze sul comportamento umano

gli algoritmi di queste tecnologie digitali sono in grado di


raccogliere migliaia di dati sensibili relativi alla salute e alle
malattie, analizzarli, creare delle connessioni, stabilire relazioni
interne alle informazioni e tra informazioni, azzardare diagnosi e
indicarci anche possibili terapie.
I dati che gli algoritmi accumulano e analizzano hanno a che fare
con i problemi più intimi della persona.

Da un punto di vista etico, che garanzie abbiamo che la sfera
privata sia davvero rispettata?
BIG DATA SCIENCE

la ricerca scientifica su scala globale e basata sulle tecnologie Big


Data, un sistema di ricerca gigantesco, che coinvolge enti, consorzi,
fondazioni, corporation internazionali

promette di migliorare la salute, studiando malattie storiche e altre


emergenti

genera una nuova realtà come la bioeconomia, la quale pone nuove


questioni che urgono di una risposta
DOMANDE ETICHE:

1. che fine fa la privacy legata a temi sensibili come la salute e le
malattie di ciascun individuo?

2. quanto sono adeguate le leggi nazionali per regolamentare questo
immenso e continuo scambio di informazioni che toccano milioni di
individui, svelandone i problemi più intimi?

3. Che dinamiche si metteranno in opera quando un medico dovrà
giustificare un trattamento sanitario (o un trapianto) e dovrà
chiedere ai pazienti di interrogare preventivamente un oracolo
informatico oppure, che poi è lo stesso, dovrà a sua volta emettere
una diagnosi o decidere su un trapianto, basandosi sui Big Data?
2. IL CONSENSO INFORMATO E IL PARADIGMA IPPOCRATICO
la “RIVOLUZIONE SILENZIOSA”
(ancora in atto nel mondo sanitario occidentale)

Con il consenso informato Nel paradigma ippocratico (paternalista)

la “coscienza e la volontà” del paziente


ottiene pieno riconoscimento
il medico è invece l’unico agente
morale
Fino alla fine del secolo scorso, la modalità del rapporto medico/paziente era
quella descritta da Erodoto descritto nelle Storie (V sec. a.C.).

Il buon medico è quello che: “Fa tutto con calma e competenza, nascondendo il
più delle cose al paziente mentre si occupa di lui. Dà gli ordini necessari,
distoglie l’attenzione del paziente da ciò che gli viene fatto; qualche volta dovrà
rimproverarlo in modo aspro e risentito, altre volte dovrà confortarlo con
sollecitudine e attenzione, senza nulla rivelargli della sua condizione presente e
futura”.


Al medico ippocratico era riservato il cosiddetto “privilegio terapeutico”, ossia
dire o di non dire la verità al paziente:


Nascondere all’ammalato la verità è un dovere, forse il più nobile, del medico cui spetta
di stabilire ciò che il paziente debba sapere e quanto debba essergli nascosto.
Nel MODELLO IPPOCRATICO Nel MODELLO “CONSENSO INFORMATO”:

l'informazione e il consenso sono parte


integranti dell'atto medico
il paziente è in una
posizione di “minorità
morale”

informare è parte della cura e acquisire il


consenso rientra nel tempo di cura.
Altra differenza tra i due modelli:

nel modello ippocratico: l’atto medico si giustifica con la finalità di cura.

nel consenso informato: il trattamento sanitario è illegittimo e
ingiustificato senza il consenso anche quando vi è la finalità di cura.
3. RIVOLUZIONE DIGITALE: QUADRO GENERALE

LUCIANO FLORIDI (1964-)

“Etica dell'informazione”
all'Università di Oxford; dirige il
Digital Ethics Lab.
4. RIVOLUZIONE DIGITALE: TEMPO, SPAZIO

TEMPORALITA’

PREISTORIA STORIA IPERSTORIA

No ICT società e individuo


connessi all’ICT società e individuo
dipendono dalle ICT

ICT: tecnologie dell’informazione e della comunicazione.


La temporalità diventa iper-storica

– una nuova filosofia della natura


del digitale
IPER-STORIA – una antropologia filosofica
– una filosofia politica
– una nuova etica
SPAZIO

si trasforma da biosfera a info-sfera: sempre più friendly verso le


tecnologie che utilizziamo

Enveloping the world


(ingegneria meccanica):
lo spazio tridimensionale
dentro il quale un robot
meccanico agisce in
maniera efficace
LA QUARTA RIVOLUZIONE
5. RIVOLUZIONE DIGITALE: IDENTITÀ
Cosa succede alla nostra identità e alla nostra privacy?
Dunque siamo davvero speciali?

La privacy dei dati è ciò che ci rende speciali?

Forse siamo speciali perché non siamo al centro?


Floridi definisce le ICT come «le più potenti tecnologie del sé»,
capaci di determinare profonde trasformazioni anche in merito
allo sviluppo della nostra personalità.

Le ICT non si limitano a modificare Per percepire noi stessi, infatti, ci


noi stessi e le interazioni che affidiamo alle ICT21 e il modo in cui ci
abbiamo, ma danno forma e identifichiamo e re-identifichiamo con
condizionano la nostra identità noi stessi può essere compreso solo
personale (ossia, ‘il chi siamo’). in termini informazionali.
La tesi di Floridi è che siamo inforg

organismi informazionali: esseri fatti d’informazioni, ovvero
entità che vivono di (e si scambiano) informazioni; le nostre
vite e le nostre identità sono di tipo informazionale.
Siamo organismi informazionali

Chi sono? sono le informazioni che mi


costituiscono

La protezione della privacy è la protezione dell’identità personale

L’etica della protezione dei dati personali: la privacy deve essere


difesa come parte della dignità umana

Zero privacy è de-umanizzante


RIVOLUZIONE DIGITALE

oggi on-life e off-life si mescolano

ON-LIFE



neologismo che nasce dalla
combinazione tra ON-LINE e OFF-
LINE

INFOSFERA:
il luogo dove passiamo gran parte
del nostro tempo; un mondo fatto
di informazioni
la nostra centralità non è più giustificata

oggi on-life e off-life si mescolano


La vita digitale sarà sempre più centrale nella vita umana

PROBLEMA: che ne è della nostra AUTO-DETERMINAZIONE?


Assistenza sanitaria e intelligenza
artificiale
(Grandi Sfide - Salute)

LEZIONE 5 – Prof.ssa Vera Tripodi
SOMMARIO DELLA LEZIONE:

L’ETICA DELLA TECNICA, IA E ASSISTENZA SANITARIA:

1.  COME CI CUREREMO NEI PROSSIMI ANNI?
2.  CINQUE PRINCIPI FONDAMENTALI PER L’IA ETICA
3.  BIG DATA E LE PROSPETTIVE ETICHE





Dalla lezione precedente…
1. COME CI CUREREMO NEI PROSSIMI ANNI?
Come ci cureremo nei prossimi mesi? come alcuni di noi si stanno
già curando?
Le novità riguardano un po’ tutta la linea della nostra salute dalla
prevenzione alla diagnostica e poi anche la cura.

Prevenzione (Triage digitale)

Diagnostica

Cura e Sperimentazione

…e che ne sarà della relazione medico-paziente?


Citazione dall’articolo online:

“I medici che li usano già li chiamano Cric e Croc. Sono i due robot
supertecnologici, i primi del genere in Italia che, d'ora in poi,
saranno utilizzati al Policlinico San Donato alle porte di Milano,
nel reparto di Elettrofisiologia appena inaugurato. Ognuno dei
due super robot, alti un metro e 70 centimetri, è una sorta di
'avatar' del chirurgo. Che, tramite un tablet, lo può manovrare a
distanza, "anche dalla sala d'attesa di un aeroporto - dice il
primario del nuovo reparto, Carlo Pappone - I due robot
rappresentano una nuova frontiera nella gestione del rapporto
con il malato, in cui è richiesta sempre più competenza e un
intervento immediato del medico in circostanze critiche: in
questo senso, direi che non li allontana, ma al contrario li
avvicina. Visto che grazie a questa tecnologia il medico può essere
presente anche quando è a un congresso, o si trova all'esterno
dell'ospedale".

22 settembre 2015
Carlo Pappone, il primario dell'Unità di Elettrofisiologia e
Aritmologia del Policlinico San Donato, ha dichiarato:

"Non è una tecnologia che allontana medico e


paziente, ma li avvicina, rappresentano una nuova
frontiera nella gestione del rapporto con il malato, in
cui è richiesta sempre più competenza e un intervento
immediato del medico in circostanze critiche. Si può
essere presenti anche quando si viaggia per andare ai
congressi, o ci si trova all'esterno dell'ospedale".
la video-tecnologia e l’uso dei robot al capezzale dei pazienti è
adottata per «aumentare l’assistenza, e portare una migliore
consulenza ai pazienti»
Citazione dall’articolo online:

“È successo in California a un 78enne colpito da grave crisi respiratoria.

La famiglia di Ernest Quintana sapeva che il 78enne era grave: trasportato in
ospedale per una crisi respiratoria dovuta a una malattia polmonare cronica,
temevano tutti per il peggio. Ma sono rimasti sconvolti quando un robot è
entrato nella stanza di terapia intensiva nella notte e un medico collegato via
skype ha detto a Ernest che sarebbe morto in pochi giorni. Cosa che poi è
avvenuta.

Testimone la nipote Annalisa che stava con il nonno di notte. «Mi hanno detto
che sarebbe arrivato il medico - ha raccontato - , allora mi sono apprestata a
registrare le sue parole per riferire meglio a mia mamma». Quando ha visto
entrare il robot con lo schermo pensava servisse a mostrare i test sullo stato di
salute del nonno, invece sul video è comparso un medico collegato in
videochiamata che ha annunciato il triste responso. La cosa peggiore era che
Ernest non riusciva a sentire bene le parole che provenivano dallo schermo e
Annalisa gliele doveva ripetere ad alta voce, sillabandole.

Citazione dall’articolo online:

«Se venite a darci notizie “normali”, va bene, ma se vieni a dirci
che il polmone non funziona più e metterete su una flebo di
morfina finché il paziente non morirà allora questo dovrebbe
essere fatto da un essere umano e non da una macchina», ha
detto la figlia Catherine.

«Ci hanno spiegato che questa è la nuova prassi – ha aggiunto -
Questo è il modo in cui si fanno le cose oggi» “.

La medicina del futuro sarà di tipo preventivo, sostengono gli
specialisti.


Le tecnologie digitali, utilizzate in campo sanitario e volte alla
prevenzione, pongono questioni etiche? E se sì, quali?

Quattro macro-aree di applicazione della medicina digitale


1. Il monitoraggio della salute;

2. la diagnosi;

3. L’uso di algoritmi predittivi applicati sia alla prognosi che al
trattamento;

4. Le applicazioni legate alla salute pubblica.

Alessandro Blasimme, Medicina digitale e IA: profili etici, in Fossa, Schiaffonati, Tamburrini (a cura di),
Automi e persone, Carocci 2021, pp. 55-69.
1.
Dispositivi connessi possono essere portatili
o di tipo residenziale

Esempi: le abitazioni come stazioni di monitoraggio della salute


(smart home) soprattutto nel caso degli anziani

Funzioni anche di stimolo per incrementare l’attività fisica
(attraverso semplici esercizi da eseguire con l’ausilio di app e
allenatori virtuali) o l’interazione sociale (proposte culturali o
piattaforme di comunicazione)

Alessandro Blasimme, Medicina digitale e IA: profili etici, cit.


2.
In ambito diagnostico

Gli algoritmi di apprendimento automatico si rivelano efficaci
nell’analisi di immagini cliniche e radiologiche .

Esempi:
– Nel 2016, è stato sviluppato un algoritmo basato
sull’apprendimento profondo (deep learning) in grado di
diagnosticare il diabete a partire da immagini del fondo oculare
dei pazienti.

– Nel 2017, è stato sviluppato un algoritmo di apprendimento
automatico in grado di riconoscere la presenza di carcinomi e
melanomi in un’immagine clinica.

Alessandro Blasimme, Medicina digitale e IA: profili etici, cit.


I temi più ampiamente dibattuti in etica e bioetica:

1.  Questioni inerenti la privacy e la protezione dei dati
personali;

2.  Le questioni relative all’apprendimento automatico;

3.  Le questioni legate alla trasparenza degli algoritmi di


IA;

4.  Le questioni relative ai nuovi modelli di cura incarnati
dalla medicina digitale.

Alessandro Blasimme, Medicina digitale e IA: profili etici, cit.


1.
Questioni inerenti la privacy e la protezione dei dati personali


La medicina digitale si basa sulla possibilità di raccogliere,
conservare, analizzare e distribuire una grande quantità di dati
personali, sanitari e non.

Difficoltà: possibile violazione dei principi di autonomia e
autodeterminazione (la capacità di esercitare un certo grado di
controllo su cui alcuni aspetti inviolabili della sfera privata)

La necessità di proteggere la privacy delle persone

Alessandro Blasimme, Medicina digitale e IA: profili etici, cit.


2.
Le questioni relative all’apprendimento automatico


Gli algoritmi vengono sviluppati facendo “allenare” l’algoritmo su una grande
quantità di dati annotati o meno.

Per sviluppare un algoritmo in grado di diagnosticare per esempio un melanoma
a partire da un’immagine clinica, i ricercatori forniscono esempi di immagini di
melanomi e lasciano che l’algoritmo apprenda da solo quali parametri grafici
(colore, forme, luminosità eccetera) correlano con una diagnosi positiva o quali
no.

La qualità dei dati è molto importante per assicurare l’accuratezza dell’algoritmo.

Difficoltà: i dati disponibili in ambito della ricerca biomedica NON sono
sufficientemente rappresentativi della popolazione (sono in prevalenza
rappresentativi di adulti bianchi di origine europea o nordamericana). Rischio di
acuire disparità di alcuni gruppi etnici.

Alessandro Blasimme, Medicina digitale e IA: profili etici, cit.


3.
Le questioni legate alla trasparenza degli algoritmi di IA

L’efficacia degli algoritmi di apprendimento automatico dipende dalla potenza
di calcolo (per testare migliaia di parametri e scoprire quelli statisticamente
significativi dal punto di vista clinico)

Quello che la macchina apprende: un insieme di correlazioni statistiche tra un
certo numero (anche elevato) di variabili e una classificazione clinica (ad
esempio la diagnosi in una malattia) o una previsione (il modo in cui un
paziente reagirà a un dato farmaco)

L’algoritmo non sa perché i parametri che ha imparato a osservare siano
rilevanti, ovvero non fornisce una spiegazione causa del perché a determinati
profili epigenetici corrispondano determinati esiti clinici.

Chi sviluppa questi algoritmi in genere non ha modo di scoprire quali regole la
macchina abbia appreso.

Alessandro Blasimme, Medicina digitale e IA: profili etici, cit.


3.
Le questioni legate alla trasparenza degli algoritmi di IA


In senso metaforico, si dice che gli algoritmi siano opachi, non
trasparenti.

Un algoritmo non trasparente può essere molto accurato ma rimane
indifferente rispetto alla struttura causale del fenomeno a cui si
applica.

Esempio: che l’algoritmo possa risolvere la complessità dei dati e pervenire a
una decisione clinica non dipende dal conoscere quale siano i meccanismi
biologici che legano determinati profili a una maggiore o minore efficacia di
un farmaco

Alessandro Blasimme, Medicina digitale e IA: profili etici, cit.


3.
Le questioni legate alla trasparenza degli algoritmi di IA

Problemi: un medico che si affida a un algoritmo non trasparente si
affida a uno strumento di cui non conosce il funzionamento, uno
strumento in merito al cui funzionamento non è possibile fornire
alcuna spiegazione causale.

Secondo alcuni, questo mina il dovere di ogni medico di agire
sapendo ciò che fa e avendo buone ragioni per farlo.

Domanda: il medico ha obblighi di trasparenza nei confronti del
paziente in merito alle caratteristiche tecniche degli algoritmi che
utilizza?

Alessandro Blasimme, Medicina digitale e IA: profili etici, cit.


2. CINQUE PRINCIPI FONDAMENTALI PER L’IA ETICA
Beauchamp e Childress
L’etica dell’approccio dei quattro principi:

– Beneficenza (il personale sanitario deve agire tutelando
l'interesse del paziente)

– Non-maleficenza (il personale sanitario non deve causare
danno al paziente)

– Autonomia (il paziente ha diritto di rifiutare il trattamento e
di prendere parte al processo decisionale)

– Giustizia (in caso di risorse limitate, i trattamenti devono
essere distribuiti tra i pazienti in modo equo e giusto)


Maurizio Mori, Manuale di bioetica. Verso una civiltà secolarizzata, Le Lettere, Firenze, 2013
1.
Beneficenza
(il personale sanitario deve agire tutelando l'interesse del
paziente)


– L’IA dovrebbe essere sviluppata per il bene comune e il beneficio
dell’umanità

– L’IA dovrebbe promuovere il benessere delle persone

L. Floridi, Etica dell’intelligenza artificiale, Cortina 2022, pp. 91-105.


2.
Non-maleficenza
(il personale sanitario non deve causare danno al paziente)



Evitare usi impropri e rischi derivanti dalle innovazioni dell’IA
Non fare del male

L. Floridi, Etica dell’intelligenza artificiale, cit.


3.
Autonomia
(il paziente ha diritto di rifiutare il trattamento e di prendere
parte al processo decisionale)


– Lo sviluppo dell’IA dovrebbe promuovere l’autonomia di tutti
gli esseri umani

– Non compromettere la libertà degli esseri umani di stabilire i
propri standard e norme

L. Floridi, Etica dell’intelligenza artificiale, cit.


4.
Giustizia
(in caso di risorse limitate, i trattamenti devono essere
distribuiti tra i pazienti in modo equo e giusto)


Lo sviluppo dell’IA dovrebbe promuovere la giustizia e
cercare di eliminare tutti i tipi di discriminazione

L. Floridi, Etica dell’intelligenza artificiale, cit.


5.
Esplicabilità


L’IA deve essere trasparente, responsabile, comprensibile e
interpretabile

L. Floridi, Etica dell’intelligenza artificiale, cit.


3. BIG DATA E LE PROSPETTIVE ETICHE
Deontologia e BIG DATA

le teorie deontologiche affermano che si dovrebbe sempre rispettare


l’autonomia delle persone.

In particolare, Kant sostiene che dovremmo trattare le persone sempre come
fini e mai solo come mezzi.

Nell’era dei Big Data, il rispetto del principio kantiano non è facile da
garantire. I dati sono raccolti e analizzati per valutare il comportamento delle
persone a volte anche senza il loro consenso.

I Big Data possono, dunque, compromettere un diritto inviolabile


della persona
Utilitarismo e Big Data

si opera uno spostamento del esclude l’esistenza di assoluti morali,


punto di vista morale dalle quindi le azioni umane non hanno
convinzioni e intenzioni, che qualità morali intrinseche, ma vengono
fanno agire il soggetto, alle conferite in base alle conseguenze che
conseguenze prodotte causano
dall’azione

non esistono atti sempre malvagi o


sempre buoni, ma a seconda degli
effetti prodotti questi assumono
gradazioni morali diverse
Utilitarismo e Big Data

il principio della «massima felicità per il massimo numero di persone» degli


illuministi

Se la morale vuole diventare una


scienza deve basarsi sui fatti e
non su valori astratti. La felicità
non è altro che il piacere

Piacere e dolore sono fatti


quantificabili così da poter essere
assunti come criterio dell’agire
Utilitarismo e Big Data

un’algebra morale

il calcolo quantitativo che permette di conoscere le conseguenze


dell’agire, quantificando la felicità prodotta indirizzandoci verso azioni
che massimizzino il piacere e minimizzino il dolore

LE BUONE AZIONI SONO QUINDI LE AZIONI CHE PROMUOVONO LA FELICITÀ


NON SOLO PER IL SINGOLO MA ANCHE PER LA COLLETTIVITÀ, VICEVERSA LE
CATTIVE AZIONI OSTACOLANO LA FELICITÀ
Utilitarismo e Big Data

Oggi con la disponibilità di quantificare innumerevoli aspetti dell’agire e del


sentimento sociale, questo principio potrebbe riproporsi in forme nuove, col
rischio di prendere una deriva estremista

alla base dello Stato non vi è alcun contratto sociale ma una necessità utilitaria
di promuovere collettivamente la felicità, il piacere di tutti. Le leggi avranno
così il compito di incoraggiare le azioni buone (cioè che promuovono l’utile) e di
impedire e sanzionare quelle che ostacolano il bene comune

Se il fine è nobile, non lo sono altrettanto i rischi che un uso troppo


algebrico di tanti aspetti dell’agire umano possa recare più danni che
benefici
Utilitarismo e Big Data

Valutare l’etica dei Big Data da una prospettiva utilitaristica è inoltre


complicato.

Da questa prospettiva, si dovrebbero quantificare in maniera algebrica gli
aspetti negativi e positivi delle conseguenze dell’utilizzo dei dati (tenendo conto
di fattori quali il benessere distribuito e il numero di persone interessate).

Per stabilire se un utilizzo dei dati sia giusto o sbagliato, si dovrebbero allora
calcolare tutte le conseguenze positive e negative per tutte le persone
coinvolte; tutti aspetti che massimizzano maggiormente la felicità.

il valore delle conseguenze dell’utilizzo dei Big Data è dunque difficile


da valutare
Etica della virtù e Big Data

Per valutare o meno la moralità di un’azione, l’etica della virtù pone


l’accento sull’agente che compie l’azione. Una persona virtuosa è quella
che fa la cosa giusta, al momento giusto e per una giusta ragione.

Le decisioni morali non possono essere ridotte a un insieme di regole.


Deve essere esaminato invece il carattere dell’agente e ogni singolo caso.


Per la valutazione morale dell’utilizzo dei dati, dunque, si deve
necessariamente esaminare il carattere della persona che ne fa uso
considerando anche gli effetti previsti e non voluti sugli altri.
Assistenza sanitaria e intelligenza
artificiale
(Grandi Sfide - Salute)

LEZIONE 6 – Prof.ssa Vera Tripodi
SOMMARIO DELLA LEZIONE:

1. LA QUESTIONE DELLA RESPONSABILITÀ
Anticipare l'impatto etico delle tecnologie emergenti è una
parte essenziale dell'innovazione responsabile.


Una di queste tecnologie emergenti è il Digital Twin.


Un gemello digitale combina varie tecnologie emergenti
come intelligenza artificiale, Internet delle cose, big data e
robotica (ciascuna delle quali apporta le proprie
problematiche socio-etiche).
valore socio-etico (ad es.
prevenzione e cura delle
malattie, riduzione dei costi,
autonomia e libertà del
paziente, parità di
trattamento)


rischi socio-etici (ad es.
privacy e proprietà dei dati,
disuguaglianza e ingiustizia)
La valutazione etica della tecnologia è oggi al centro del
dibattito sulla ricerca e innovazione responsabili

L'obiettivo di tale valutazione è rilevare ed eventualmente


prevenire l'impatto negativo di una tecnologia sulla società, ma
anche consentire alle parti interessate di vari settori della
società di riflettere e deliberare sui costi-benefici risultanti.
Cosa vuol dire essere responsabile per un(a) progettista?
PARTIAMO DA TRE CASE STUDIES E UN ESPERIMENTO MENTALE…..

Citigroup Center Space Shuttle Challenger

Macchina a guida autonoma

Il violinista
Citigroup Center È uno dei più alti grattacieli di New York
City inaugurato nel 1977: ha 59 piani, è
alto 279 metri, ha il tetto spiovente e la
base del grattacielo non è a livello della
terra ma è sollevata di 35 metri.

È stato disegnato dall'architetto Hugh
Stubbins e dall'ingegnere strutturale
William LeMessurier
Space Shuttle Challenger la mattina del 28 gennaio 1986 lo Space
Shuttle Challenger fu distrutto dopo 73
secondi di volo.

Ritardi del lancio


Impossibile la fuga dell'equipaggio

Indagini

Causa dell’incidente: un guasto a una


guarnizione, un O-ring, nel segmento inferiore
del razzo a propellente solido (SRB) destro. La
rottura della guarnizione provocò una
fuoriuscita di fiamme dall'SRB che causò un
cedimento strutturale del serbatoio esterno
contenente idrogeno e ossigeno liquidi.

Il cedimento venne causato dalla combinazione della cattiva progettazione e delle


basse temperature.
Space Shuttle Challenger

Gli ingegneri del costruttore Morton


Thiokol degli SRB erano a conoscenza
del problema e suggerirono (in un
primo tempo) di non effettuare il
lancio
Quali ostacoli in generale impediscono un’azione moralmente
responsabile e quali potrebbero aver giocato un ruolo rilevante
(al di là degli errori tecnici e delle cause materiali) nei due case
studies appena illustrati?
Cosa ostacola un’azione responsabile nel contesto di un processo
decisionale?

Cosa vuol dire essere responsabile per un esperto, un tecnico?




C’è una differenza tra essere responsabile per sé stesso ed esserlo
nei confronti degli altri?


Cosa vuol per un tecnico (come un ingegnere) non aver agito in
maniera responsabile?

AUTO-INGANNO
INTERESSE PERSONALE
PAURA
IGNORANZA

RESPONSABILITÀ MORALE EGOCENTRISMO

LA VISIONE MICROSCOPICA

L’ACCETTAZIONE ACRITICA DELL’AUTORITÀ


IL PENSIERO DI GRUPPO (GROUPTHINK)
INTERESSE PERSONALE

Può l’interesse personale ostacolare un’azione responsabile?

può scaturire in una forma di


egoismo, cioè nell’interesse
esclusivo a perseguire
può condurre una e soddisfare il proprio
persona a non può condurre una persona a interesse anche a discapito
tenere conto degli non riconoscere le proprie degli altri
interessi degli altri responsabilità

‘pensa solo a te stesso!’


l’interesse personale può essere un fattore di ostacolo a un’azione
responsabile anche per un tecnico. Anche nel caso di un professionista

può limitare la sua indipendenza e la sua obiettività oppure far sorgere dei
conflitti difficili da gestire
in che senso l’interesse personale potrebbe aver impedito il compiersi
di un’azione responsabile nel caso del Challenger ?

l’interesse personale può compromettere l’integrità professionale

i dirigenti della NASA potrebbero ragioni d’interesse economico potrebbero


essere stati così concentrati sull’interesse di aver spinto la Morton Thiokol a non porre
perseguire l’obiettivo di non posticipare il alcun ostacolo alla decisione della NASA di
volo da mettere in secondo piano la non posticipare il decollo del Challenger.
sicurezza dell’equipaggio coinvolto.
AUTO-INGANNO
INTERESSE PERSONALE
PAURA
IGNORANZA

RESPONSABILITÀ MORALE EGOCENTRISMO

LA VISIONE MICROSCOPICA

L’ACCETTAZIONE ACRITICA DELL’AUTORITÀ


IL PENSIERO DI GRUPPO (GROUPTHINK)
AUTO-INGANNO

Un modo per resistere alla tentazione di perseguire l’interesse personale


potrebbe essere quello di aprirsi a un confronto onesto con sé stessi

Talvolta, però, il tentativo di trovare una ragione alla nostra condotta e alle
nostre scelte non sempre conduce a riconoscere con onestà e dovuto
distacco quello che stiamo facendo.
Talvolta, la tendenza a razionalizzare può però scaturire in atteggiamenti
difensivi o giustificatori

Ovvero, in atteggiamenti assolutori che ci portano a non riconoscere le


criticità della nostra condotta o il fatto che un nostro comportamento possa
essere mosso dall’opportunità di un vantaggio personale

Espressioni verbali tipiche di questo atteggiamento:


‘Non lo sto facendo davvero per me stesso’;
‘Tutti prendono delle scorciatoie una volta ogni tanto’
‘E’ l’unico modo per sopravvivere!’.
In alcuni casi, la ragione offerta per giustificare una nostra scelta o un nostro
comportamento potrebbe evidenziare una decisa mancanza di autocomprensione.

In quest’ultimo caso, la ragione esibita potrebbe essere frutto di un autoinganno

ossia di quel «processo mentale per cui il soggetto inganna sé stesso


senza rendersene conto, ignorando gli aspetti negativi della realtà e
sostituendoli con altri positivi» (Treccani)
L’autoinganno può essere stato un fattore rilevante per esempio nel
disastro del Challenger?

Il lancio del Challenger è stato


i manager della NASA sembravano preceduto da una serie positiva di
convinti che i successi delle missioni decolli. Inoltre, dopo ogni lancio dei
del passato fossero un indicatore del ventiquattro che avevano
fatto che un difetto noto come preceduto quello del Challenger, la
quello degli O-ring non avrebbe NASA aveva sempre apportato
causato difficoltà e tantomeno verifiche minuziose e modifiche
determinato un disastro. La volte a rimuovere i difetti
decisione di non annullare il volo del emersi e garantire la massima
Challenger si basò anche su sicurezza. L’autorizzazione al lancio
considerazioni di questo tipo. venne dunque data nel
convincimento che la serie positiva
dei lanci precedenti riduceva il
rischio d’insuccesso del lancio
successivo.
«normalizzare la devianza» [Diane Vaughan]:

invece di trovare un rimedio al problema che si era presentato, i dirigenti
della NASA alzarono i limiti di accettabilità del rischio in assenza di valide
evidenze o prove ingegneristiche a favore della loro posizione.

Il disastro del Challenger sarebbe il risultato di una decisione razionale


conforme alla cultura aziendale della NASA e alle sue regole.

Nel caso del Challenger, dunque, non è stata violata nessuna norma. Il
disastro non è scaturito dall’infrazione delle norme di sicurezza bensì da un
rigoroso rispetto di esse.
AUTO-INGANNO
INTERESSE PERSONALE
PAURA
IGNORANZA

RESPONSABILITÀ MORALE EGOCENTRISMO

LA VISIONE MICROSCOPICA

L’ACCETTAZIONE ACRITICA DELL’AUTORITÀ


IL PENSIERO DI GRUPPO (GROUPTHINK)
LA PAURA

Il nostro agire potrebbe essere mosso o condizionato da vari tipi di paura,


quella per esempio di dover riconoscere i propri errori, di perdere il lavoro, di
essere penalizzati, di subire conseguenze negative come sanzioni, ripercussioni
e ritorsioni.
Nell’incidente del Challenger, la paura è un fattore che potrebbe aver giocato un
ruolo considerevole rispetto alle scelte fatte

Nella seconda votazione avvenuta la sera prima del decollo, alcuni ingegneri
della Morton Thiokol potrebbero aver cambiato opinione ed essersi
conformati alla scelta dei manager della NASA – vale a dire alla decisione di
non posticipare il lancio del Challenger – per paura di subire conseguenze
negative o ripercussioni sul piano lavorativo.
AUTO-INGANNO
INTERESSE PERSONALE
PAURA
IGNORANZA

RESPONSABILITÀ MORALE EGOCENTRISMO

LA VISIONE MICROSCOPICA

L’ACCETTAZIONE ACRITICA DELL’AUTORITÀ


IL PENSIERO DI GRUPPO (GROUPTHINK)
IGNORANZA
Un altro ostacolo all’azione responsabile è l’ignorare le informazioni rilevanti

Come emerso per esempio dal rapporto «Rogers», i dirigenti della NASA non
erano sempre ben informati delle varie problematiche dello shuttle e, in alcune
fasi, della missione non possedevano (dunque ignoravano) informazioni rilevanti.

La ragione di ciò potrebbe essere stata la seguente: a mano a mano che le
informazioni raggiungevano le sfere più alte della gerarchia organizzativa sempre
più i punti di vista dissenzienti venivano filtrati dando così luogo a una versione
eccessivamente sterile dei fatti.

Il rapporto «Rogers» ha fatto emergere l’esistenza di un ‘recinto
culturale’ (cultural fence) tra ingegneri e manager.
AUTO-INGANNO
INTERESSE PERSONALE
PAURA
IGNORANZA

RESPONSABILITÀ MORALE EGOCENTRISMO

LA VISIONE MICROSCOPICA

L’ACCETTAZIONE ACRITICA DELL’AUTORITÀ


IL PENSIERO DI GRUPPO (GROUPTHINK)
EGOCENTRISMO

Una tendenza caratteristica dell’esperienza umana è di interpretare


le situazioni da una prospettiva limitata

egocentrismo: un atteggiamento che conduce un individuo a


«porre sé stesso al centro di ogni evento, per cui la propria
percezione delle cose e i propri giudizi assumono un valore
pressoché assoluto, rendendo difficile l’accettazione del punto di
vista degli altri e quindi la comunicazione sociale» (Treccani)
Si potrebbe, dunque, pensare che i dirigenti della NASA abbiano
probabilmente espresso una prospettiva egocentrica quando hanno
preso decisioni tenendo presente solo il punto di vista aziendale,
concentrandosi su fattori quali la programmazione e i costi della
missione. Le motivazioni alla base di questa prospettiva non erano
necessariamente egoistiche. Anzi, la NASA aveva sicuramente a cuore
anche il benessere dell’organizzazione e degli astronauti.

Tuttavia, l’aver adottato una prospettiva aziendale (egocentrica) potrebbe


aver portato a commettere degli errori.
AUTO-INGANNO
INTERESSE PERSONALE
PAURA
IGNORANZA

RESPONSABILITÀ MORALE EGOCENTRISMO

LA VISIONE MICROSCOPICA

L’ACCETTAZIONE ACRITICA DELL’AUTORITÀ


IL PENSIERO DI GRUPPO (GROUPTHINK)
LA VISIONE MICROSCOPICA
Analogamente al pensiero egocentrico, la visione microscopica abbraccia
una prospettiva limitata.

La visione microscopica può essere – sebbene il campo visivo sia notevolmente


limitato – estremamente accurata e precisa

tralascia e ci fa perdere questo è il prezzo dell’osservare il


di vista la visione mondo al microscopio. Solo
macroscopica (ossia ‘in quando si alzano gli occhi dalla
grande’) degli oggetti. lente, è possibile vedere gli
oggetti in maniera ‘ordinaria’.
chi lavora in team (come accade nelle grandi aziende, società
e istituzioni) tende a favorire un pensiero microscopico

questa visione potrebbe anche essere stato un fattore che ha


contribuito all’incidente del Challenger e impedito un’azione
responsabile da parte di alcuni protagonisti della vicenda
AUTO-INGANNO
INTERESSE PERSONALE
PAURA
IGNORANZA

RESPONSABILITÀ MORALE EGOCENTRISMO

LA VISIONE MICROSCOPICA

L’ACCETTAZIONE ACRITICA DELL’AUTORITÀ


IL PENSIERO DI GRUPPO (GROUPTHINK)
L’ACCETTAZIONE ACRITICA DELL’AUTORITÀ

Che cosa comporta il rispetto acritico dell’autorità?

Esperimento (elaborato e condotto


dal 1960 al 1963 presso l’Università
di Yale) sull’obbedienza agli ordini
ricevuti condotto in psicologia da
Stanley Milgram

(1933 –1984)
l’esperimento di Milgram mostra che una percentuale alta di persone demanda
e affida il proprio giudizio in maniera ossequiosa a figure autorevoli; delega le
decisioni a chi riveste un ruolo gerarchicamente superiore e rispetta
passivamente gli ordini che riceve

Il test è su base volontaria

Un ricercatore comanda a un soggetto (T


insegnante) di punire con scosse elettriche un
altro soggetto (S-studente). Il soggetto T è
convinto che queste scosse elettriche siano
dolorose perché così gli è stato riferito
all’inizio dell’esperimento.
L’insegnante deve leggere all’allievo delle coppie di parole (come “scatola azzurra, giornata
serena, anatra selvaggia”)

L’allievo deve ricordare a memoria la serie di coppie

L’insegnante deve poi ripetere la seconda parola di ogni coppia insieme a quattro associazioni
diverse («azzurra: auto, acqua, scatola, lampada) e domandare all’allievo quale sia la parola
indicata nella coppia originaria

L’insegnante deve poi stabilire la correttezza delle risposte. In caso di risposta scorretta,
l’insegnante ha il compito di punire l’allievo con una scossa elettrica (si parte da 15 volt fino
ad arrivare a 450 volt).
In base ai risultati ottenuti, molti soggetti T seguitano a impartire scosse
elettriche anche di fronte a lamentele e suppliche di pietà da parte dei soggetti
che le subiscono.

Anche quando hanno protestato verbalmente durante le prove, i partecipanti
hanno ubbidito ed eseguito quello che gli veniva ordinato di fare. Secondo
Milgram, questo grado di obbedienza è stato indotto dalla presenza di una figura
legittimamente riconosciuta come un’autorità.

L’esperimento mostra dunque che un soggetto, nell’interazione


con un’autorità che identifica come legittima, non si considera
più libero di agire in maniera autonoma, bensì come un mezzo
per eseguire ordini altrui
Che tipo di ripercussioni può avere l’esperimento di Milgram
per gli ingegneri?

Gli ingegneri non sono dunque immuni alle dinamiche emerse


nell’esperimento di Milgram. Queste dinamiche potrebbero
portare a ridurre il senso di responsabilità individuale
dell’ingegnere verso le eventuali conseguenze negative delle sue
azioni
AUTO-INGANNO
INTERESSE PERSONALE
PAURA
IGNORANZA

RESPONSABILITÀ MORALE EGOCENTRISMO

LA VISIONE MICROSCOPICA

L’ACCETTAZIONE ACRITICA DELL’AUTORITÀ


IL PENSIERO DI GRUPPO (GROUPTHINK)
IL PENSIERO DI GRUPPO (GROUPTHINK)

Tra i maggiori ostacoli a un’azione responsabile, nel contesto di un processo


decisionale, vi è il cosiddetto “pensiero di gruppo”, quel sistema di credenze
espresso dai membri di un gruppo che presenta le seguenti caratteristiche:

non deve essere confuso con il


è invece una forma ‘razionalizzata’
banale conformismo, ossia la
di conformismo «che considera i
tendenza di ogni membro di
valori del gruppo non solo comodi
conformare le proprie opinioni
ma addirittura virtuosi e giusti»
al modo in cui pensa il gruppo
A caratterizzare il «pensiero di gruppo» è, dunque, la forte coesione
fra i membri, che può presentare un grande pericolo per il pensiero critico

produce l’emergere della


prospettiva del ‘noi contro sono dunque messi
gli altri’, ove per ‘altri’ al bando l’autonomia e
s’intende chiunque sia l’originalità di pensiero
esterno al gruppo
Irving Janis
Per mitigare gli esiti negativi del «pensiero di gruppo» occorre
essere consapevoli innanzitutto che la sua manifestazione può
essere favorita da una serie di precondizioni quali ad esempio:

1. l’isolamento del gruppo;


2. l’alta coesione del gruppo;
3. una leadership direttiva imparziale;
4. la mancanza di norme sulle procedure di metodo;
5. l’omogeneità del contesto ideologico e sociale dei singoli membri;
6. l’alto stress (determinato per esempio da minacce esterne, dalla
difficoltà di trovare una soluzione migliore rispetto a quella individuata
dal leader, dai fallimenti recenti).
Otto sintomi che sono espressioni ricorrenti del «pensiero di gruppo»:

1.  l’illusione di invulnerabilità;



2.  la ferma convinzione circa la moralità della propria causa;

3.  la creazione di un’atmosfera di non contraddizione;

4.  la creazione di stereotipi dei gruppi rivali e degli esterni;

5.  la creazione di un clima di auto-censura che sopprime ogni possibile
espressione di dissenso;

6. l’illusione di unanimità e di mancanza di alternative;

7. la pressione diretta a conformarsi e a non dissentire;

8. la preoccupazione dei membri di filtrare in modo conscio o inconscio le
informazioni per proteggere il gruppo e il leader da opinioni discordanti.
È possibile tuttavia, secondo Janis, adottare le seguenti buone pratiche
per prevenire il fenomeno e limitare almeno in parte le sue conseguenze negative:

1.  nei processi decisionali, occorrerebbe confrontarsi con un gruppo più vasto;

2.  il leader dovrebbe mostrarsi imparziale durante una discussione ed eventualmente
esprimere la propria opinione dopo tutti gli altri;

3.  occorrerebbe suddividere il gruppo in gruppi più piccoli e assegnare ad essi compiti
diversi;

4.  il lavoro finale dei piccoli gruppi dovrebbe essere discusso insieme agli altri gruppi;

5.  esperti esterni dovrebbero essere invitati a partecipare alle discussioni; i membri dei
singoli gruppi dovrebbero avere la possibilità di fare domande e discutere insieme agli
esperti.

6.  occorrerebbe individuare un ‘Avvocato del Diavolo’ in grado di mettere in discussione le
idee del gruppo;

7.  occorrerebbe avere la possibilità di un secondo momento (una seconda fase) per
presentare alternative.
Il «pensiero di gruppo» può dunque impedire e ostacolare anche
l’azione responsabile di un tecnico?

si potrebbe congetturare che – nel


caso del Challenger – la scelta di
non posticipare il decollo fosse in Nella seconda fase della discussione, quando
la Morton Thiokol decide per l’autorizzazione
qualche misura legata anche
al volo, le ragioni offerte da Boisjoly per
all’illusione d’invulnerabilità.
giustificare la scelta di non procedere con il
Questa illusione potrebbe aver
portato i dirigenti della NASA ad decollo vengono etichettate come
affrontare con un eccessivo e non ‘inconcludenti’.
motivato ottimismo il rischio
rappresentato dal difetto
degli O-ring. Il «pensiero di
gruppo» potrebbe avere giocato
una parte anche nei rapporti e
meccanismi interni della Morton
Thiokol.

Potrebbero piacerti anche