Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
DOC. SIMONETTI
LAURA GALDINI
GRAPHIC DESIGN 2^B
GUIDA AUTONOMA:
SFIDE E RISCHI
SULLA STRADA
VERSO IL FUTURO
“Le auto a guida autonoma porteranno a una rivisitazione dei ruoli e delle relazioni
sociali all’interno della società, dalla distribuzione del potere alla definizione
di responsabilità.”
Nei paragrafi successivi verranno illustrati alcuni di questi effetti negativi, traendo
spunto da esempi o casi che hanno animato il dibattito pubblico.
3
La guida autonoma solleva questioni etiche riguardo alle decisioni che i sistemi
di controllo dei veicoli autonomi dovranno prendere in situazioni di collisione
inevitabile, ossia quando il veicolo non può evitare l’impatto con un ostacolo.
In tali circostanze, potrebbero esserci conseguenze mortali per il passeggero del
VA (veicoli autonomi) o per altri utenti della strada e nonostante gli sviluppatori
faranno il possibile per prevenire queste situazioni, non si può escludere
completamente l’eventualità di collisioni inevitabili a causa di condizioni avverse
ed errori di percezione.
Mentre guidiamo, esercitiamo la nostra capacità di giudizio morale, come
la valutazione del rischio per gli altri utenti della strada. Nel caso della guida
autonoma, però, queste decisioni morali potrebbero dover essere delegate
all’autoveicolo, poiché in situazioni di collisione inevitabile, un VA potrebbe essere
in grado di scegliere l’angolo d’impatto più vantaggioso per la protezione dei
passeggeri e compiere altre scelte precluse ai conducenti umani.
Il problema etico delle collisioni inevitabili deve essere affrontato principalmente
durante la progettazione del VA. La valutazione morale riguarda le scelte da
compiere automaticamente tramite il sistema tecnologico e non sulla base di
scelte già compiute in casi analoghi precedenti. Pertanto, è necessario valutare
ex ante le opzioni disponibili per scegliere l’azione più appropriata da compiere in
futuro su larga scala, valutando tutte le possibili variabili del caso.
La decisione su come un VA debba operare in caso di collisione inevitabile è
estremamente delicata e richiede una valutazione attenta e meticolosa delle
diverse opzioni disponibili; ad esempio, in uno scenario in cui un VA si trova di
fronte a una scelta tra salvare i passeggeri del veicolo o evitare di causare danni
maggiori agli utenti della strada.
Nell’apprendimento automatico, la classificazione è una delle problematiche più
comuni e popolari. Lo scopo di un algoritmo di classificazione è quello di predire
la classe di appartenenza di un oggetto sconosciuto, scegliendo tra un insieme di
classi già note. Per comprendere meglio la modalità con cui l’algoritmo impara a
classificare gli oggetti possiamo paragonarla al modo in cui un bambino impara a
riconoscere gli animali al zoo, attraverso l’indicazione diretta di un insegnante.
Ad esempio: “questa è un’anatra” e “questo è un cigno” e poi provando a
identificare le specie degli animali senza ricevere alcun suggerimento, basandosi
sulle somiglianze con gli esempi già visti.
Nell’apprendimento automatico, l’insieme di esempi utilizzati per “addestrare”
l’algoritmo (il training set) svolge la stessa funzione del supervisore che indica le
classi di appartenenza degli oggetti.
In questo contesto è importante sottolineare che la classificazione viene in parte
definita dal programmatore e in parte determinata dall’algoritmo.
Una volta completato il processo di addestramento, è necessario verificare se
la funzione ottenuta è in grado di generalizzare degli esempi inediti, testando
le performance dell’algoritmo su un insieme di casi che non sono stati utilizzati
durante l’addestramento e, di conseguenza, prive di etichette. Durante questo
processo, l’analisi dell’errore fornisce informazioni importanti riguardo le future
prestazioni dell’algoritmo e può essere valutata in termini probabilistici.
Di contro, l’utilizzo di metodi matematici e statistici non garantisce la neutralità
e l’imparzialità delle decisioni perchè i modelli matematici sono sempre una
rappresentazione della realtà e possono quindi essere soggetti a errori (bias).
4 Per questo motivo, durante la costruzione di un modello, è comune fare delle
semplificazioni che possono influire inevitabilmente sulla rappresentazione
della realtà e sui processi decisionali. A questo limite si aggiunge il fatto che le
correlazioni identificate dal classificatore sono solo statistiche e non offrono alcuna
prova di una relazione causale tra gli attributi e le etichette.
Questo porta al problema dell’overfitting che si verifica quando un modello
è troppo adatto ai dati di addestramento e non generalizza bene alle nuove
informazioni. Ciò si traduce in una performance peggiore sui dati di test rispetto
ai dati di addestramento e, di conseguenza, a causare degli incidenti
(come i casi descritti precedentemente).
A tal proposito, consideriamo due scenari schematici, nel quali il VA ha ancora
la possibilità di scegliere tra diverse opzioni, che si distaccano dai dati
di addestramento.
• Nel primo scenario, vi sono due ciclisti che stanno attraversando la strada
in direzione ortogonale al VA. Uno dei ciclisti indossa il casco, l’altro è senza
casco. Il VA si trova in uno stato di collisione inevitabile con l’una o con l’altra
delle due biciclette, ma ha ancora tempo sufficiente per scegliere con quale
collidere.
A tal proposito, Il governo del Regno Unito ha presentato i piani per la diffusione
dei veicoli a guida autonoma entro il 2025 e la definizione delle responsabilità in
caso di incidente. Se il veicolo causasse l’incidente mentre è in modalità “guida
autonoma”, la responsabilità ricadrebbe sul produttore o sull’ente che doveva
garantirne la sicurezza. Per stabilire questo, il Regno Unito vuole creare un sistema
di approvazione per valutare la capacità dei veicoli di guidarsi da soli. La guida
autonoma verrà distinta dai sistemi di assistenza alla guida, poiché la confusione
su quest’ultimi tra i conducenti è elevata. La nuova legge definirà la guida
autonoma come un sistema in cui il conducente può distogliere l’attenzione senza
essere responsabile. Questa distinzione e responsabilità potrebbero diventare
un modello per il mondo.
Tesla Inc. è un’azienda che produce veicoli elettrici, pannelli fotovoltaici e sistemi
di stoccaggio di energia pulita. Fu fondata nel 2003 da Martin Eberhard e Marc
Tarpenning in seguito al ritiro delle auto elettriche da parte di GM. Nel 2004 Elon
Musk entrò come investitore principale e diventò CEO. La prima auto prodotta
fu la Tesla Roadster, seguita dalla Model S, Model X e Model 3.
Tutti i veicoli sono dotati di hardware per la guida autonoma e di un sistema
di visione basato su otto videocamere, dodici sensori ad ultrasuoni e un radar.
Il computer di bordo, basato su reti neurali, gestisce le informazioni raccolte
dai sensori. I veicoli utilizzano il sistema Autopilot che permette di adeguare
la velocità al traffico, cambiare corsia, entrare e uscire dall’autostrada,
parcheggiare e tornare a casa.
Tuttavia, il conducente deve sempre essere vigile e pronto a intervenire in caso
di necessità. Tesla utilizza il proprio sistema Autopilot invece del sistema Lidar,
che secondo Elon Musk, è meno preciso, costoso e meno affidabile in condizioni
climatiche difficili.
L’utilizzo delle macchine per elaborare dati complessi può fornire importanti
11 informazioni e migliorare la qualità della vita, ma è importante comprendere
il funzionamento degli algoritmi e delle tecniche di progettazione per evitare
timori e entusiasmi acritici. È necessario essere consapevoli della complessità
morale di ogni processo decisionale e mantenere un livello di vigilanza per
evitare incompletezze nei processi decisionali e per prevenire il riproporsi del male
attraverso cattive decisioni.
Bibliografia e sitografia
https://www.tesla.com/VehicleSafetyReport
https://static.nhtsa.gov/odi/inv/2022/INOA-EA22002-3184.PDF
“Automi e persone. Introduzione all’etica dell’intelligenza artificiale e della
robotica” di Fabio Fossa, Viola Schiaffonati, Guglielmo Tamburrini, Carocci editore,
2021
“Driverless cars. Intelligenza artificiale e futuro della mobilità” di Guido Calabresi,
Enrico Al Mureden, Il Mulino, 2021
12