Sei sulla pagina 1di 7

DIRITTO DELL’INNOVAZIONE E DELL’IA

Lezione 10/10
Regolamento UE su IA
È il primo regolamento al mondo in merito all’IA e si applicherà in tutti i Paesi dell’Unione
Europea (anche se ha l’ambizione di essere applicato e applicabile ovunque) e per tutti i cittadini
europei fruitori della tecnologia.
Si dice che questa disciplina è una disciplina risk-based ovvero basata sul rischio, in altre parole,
sulla base di quanto detto dai legislatori europei, non regola la tecnologia ma le attività nelle
quali la tecnologia è applicata. A tal proposito si distinguono ambiti ampi nei quali ci sono
diversi livelli di rischio. Il rischio più alto (come se fosse una piramide) è il rischio nel quale
l’utilizzo dell’IA è vietato. Ci sono delle attività per cui il rischio sui diritti delle persone è così
alto che per questo motivo il Regolamento vieta l’impiego dell’IA. Ad esempio non si può fare il
social scoring (come invece accade in Cina), in altre parole è vietata l’attribuzione di punteggi
attraverso software di IA ed è vietato il monitoraggio di massa. Poi ci sono altre attività nelle
quali l’utilizzo dell’IA non è vietato ma è ad alto rischio ovvero potrebbero essere pregiudicati i
diritti delle persone.
Rischio si distingue in: elevato, medio, basso (si deduce quindi come non ci siano sistemi di IA
privi di rischio).
1) alto rischio (tutte le attività che possono avere un impatto sui diritti costituzionali)
- impiego IA in ambito di lavoro e rapporti di lavoro (selezione del personale, dare istruzioni al
personale...)  ad esempio problemi di generalizzazioni, discriminazioni o eccessiva aderenza a
certi parametri nella selezione del personale (anche l’uomo ha pregiudizi ma nella macchina
questi sono amplificati) ma soprattutto il focus è sull’esperienza della macchina (questa
esperienza deriva da statistiche e dati della realtà)
- impiego IA nell’ambito del monitoraggio
- impiego IA nell’ambito dell’istruzione e dell’insegnamento (scuole, università...)
- impiego IA nelle reti critiche ovvero sistemi che gestiscono reti elettriche, viabilità, trasporti,
reti idriche...
- impiego IA in ambito sanitario
- impiego IA nell’ambito della sicurezza (processi, tribunali...)
ecc...

NB: l’ambito militare NON rientra nella categoria alto rischio, esiste infatti un
regolamento a parte per questo settore

Cosa significa ad alto rischio? Significa che la società che produce questi sistemi di IA dovrà
porre in essere una serie di attenzioni e di garanzie affinché si escluda che il sistema possa
indurre in errore. Ad esempio una grande attenzione dovrà essere prestata nella raccolta dei dati
che vanno poi inseriti nella macchina per addestrare gli algoritmi. Devono essere dati raccolti
con il consenso se si tratta di dati personali e devono essere privi di pregiudizi e discriminazioni
(non devono avere delle accezioni che possano essere riconducibili a discriminazioni). Si dice
poi che la decisione data dal sistema di IA deve essere umano-centrica ovvero controbilanciata
da un controllo umano. Tuttavia in merito a ciò l’ultima formulazione del Regolamento parla di
“supervisione” dunque non un controllo stretto ma una generica supervisione. Di fatto il punto
non è tanto che l’uomo deve stare a guardare, controllare e validare tutte le decisioni della
macchina ma il fatto che si possa appellare ad un uomo che abbia il controllo di quella procedura
(ad esempio nelle pubbliche amministrazioni esistono dei processi di selezione del personale che
possono avvalersi dell’utilizzo di sistemi IA). Infatti un altro principio molto importante presente
all’interno delle decisioni algoritmiche è quello della trasparenza ovvero bisogna essere in grado
di spiegare il ragionamento dietro al processo decisionale della macchina nel momento in cui
emette un output (e dunque com’è giunta a quell’output). Questa disciplina della trasparenza e di
non essere soggetti a una decisione totalmente automatica è prevista già dal GDPR
(Regolamento per la protezione dei dati personali, art. 22). Tuttavia le garanzie di cui si è parlato
prima non possono darci la certezza che il risultato non possa causare un errore o comunque
evitare attribuzioni di responsabilità.
Ma allora chi è il responsabile? È responsabile chi produce il sistema o lo distribuisce MA nel
caso in cui una società produca un sistema IA e poi lo venda ad un’altra che lo deve addestrare,
delineare e profilare per i servizi che deve offrire al proprio pubblico a quel punto il sistema IA
non è più lo stesso che è stato creato e venduto dalla prima società poiché l’algoritmo si è
trasformato. Si pone il problema se la responsabilità resterà in capo al produttore oppure a chi lo
utilizza.

Lezione 16/10
Quando abbiamo conosciuto l’IA generativa? A novembre 2022 perché è stato reso disponibile
Chatgpt per tutte le persone comuni. Le tecnologie e le applicazioni gratuite in realtà ottengono
qualcosa di molto importante ovvero i nostri dati quindi non paghiamo effettivamente un valore
monetario ma paghiamo con i nostri dati. Chatgpt ad esempio ha raccolto molte informazioni
anche private dai suoi utilizzatori.
In questo contesto bisogna focalizzare l’attenzione sulla relazione:
rapidità della tecnologia Vs legislazione molto lenta

GDPR due mesi prima dell’avvento di Chatgpt blocca Replica un’app che vuole creare un amico
virtuale perché parlando con questo amico trasmettiamo dati sensibili. Il funzionamento di
Replica è basato sul fornire risposte che mirano ad assecondare i bisogni delle persone al fine di
perpetuare l’uso dell’app.
Prima di diffondere un software di IA devono essere fatti tutta una serie di test, di accertamenti e
di valutazioni del rischio per evitare che tale software possa danneggiare i diritti delle persone,
l’ambiente... In altre parole è necessario un sistema di controllo quindi un sistema di
sperimentazione che significa anche un sistema di verifica che deve essere terzo e indipendente
alla attività di chi sviluppa o diffonde questo software. Se ad esempio viene acquistato un
software di un altro Paese al fine di utilizzarlo e distribuirlo in Europa prima di fare ciò devo
ottenere, proprio come si farebbe nel caso di giochi ed elettrodomestici, una certificazione. Ma
questa certificazione che cosa comporta oltre agli oneri di controllo, di verifica e di accertamento
ma devo chiedere a un soggetto terzo di verificare che sia stata controllata, accertata, rispettata la
regolazione europea. Il software poi deve essere aggiornato e protetto, inoltre è necessario
accertare che il software non commetta errori ma allo stesso tempo lo devo dare alla società in
questione (società che è registrata nel registro pubblico) e controllata da un’autorità (l’Autorità
nazionale di notificazione) pubblica che verifica sia richiesta la certificazione e che il processo di
certificazione sia regolare. Per riassumere: tra il soggetto che sviluppa il software e il
certificatore, nel mezzo, si trova l’Autorità nazionale di notificazione.
Il Regolamento prevede due autorità: una di notificazione, o per così dire, un ente tecnico che
gestisce le certificazioni e un’altra di vigilanza che vigila il rispetto del Regolamento. La
differenza tra alterazioni o usi impropri degli elettrodomestici o altri beni e alterazioni o usi
impropri nell’utilizzo di tecnologie di IA risiede nel fatto che queste ultime raccolgono e
utilizzano dati. Il focus della discussione ad ogni modo rimane sull’uso che viene fatto di questi
strumenti perché se è vero che il Regolamento mira a regolare l’attività degli sviluppatori (ad
esempio IBM, Google...) è anche vero che queste tecnologie possono essere utilizzate
impropriamente e dunque risulta chiaro come, a quel punto, la responsabilità non possa rimanere
in capo all’azienda produttrice ma ricada su chi le utilizza.
Quali sono però gli oneri delle società che sviluppano questi software impiegati in attività ad alto
rischio?
- controllare il rischio, accertare il rischio e verificare il rischio
- tema umano-centrico: l’uomo che supervisiona la macchina (macchina a supporto dell’uomo e
non sostitutiva dell’uomo) e importanza nel prevenire errori (non posso permettermi l’errore ex-
post se il sistema di IA controlla il funzionamento di reti idriche o centrali nucleari ad esempio)
- il principio della trasparenza: possibilità di comprendere come il software sia giunto a un
determinato risultato

Ad esempio in ambito di contratti pubblici si può fare ricorso al tribunale amministrativo al fine
di sapere in che modo ha deciso l’amministrazione, in altre parole perché ha selezionato questo o
quel candidato. L’amministrazione ha fatto delle valutazioni utilizzando anche software di IA (la
responsabilità della decisione finale è stata certamente dell’uomo MA è giunto a quella decisione
anche attraverso le valutazioni che ha fatto l’IA). Cosa significa allora il concetto di trasparenza
cui si faceva riferimento prima?
Il Codice dei contratti parla dell’accesso al codice sorgente ovvero una formula matematica
molto complessa non comprensibile da parte dei magistrati pertanto, al fine della sua
comprensione, si richiederebbe l’intervento di tecnici. La trasparenza dunque dovrebbe
comportare anche la possibilità di capire la logica che la macchina ha utilizzato per giungere a
una determinata soluzione.
Abbiamo detto che i software di IA si nutrono di dati e dunque il Regolamento sui dati personali
si applica in questa fase cioè prima che i dati vengano utilizzati dalla macchina in questione.
I Garanti per la privacy dei singoli Stati danno indicazioni, prassi e linee guida per l’applicazione
del regolamento nel singolo Paese. Lo stesso procedimento verrà adottato con il Regolamento
sull’IA. Le autorità nazionali di vigilanza, oltre quelle di notificazione, controllano e coordinano
i singoli Stati al fine di verificare che vi sia un utilizzo e un’applicazione di queste tecnologie che
siano conformi al Regolamento sull’IA. In definitiva sono le autorità nazionali che possono dare
sanzioni e si occupano dell’attività di vigilanza. In Italia non abbiamo ancora un’autorità
individuale ma quello che è certo è il fatto che questa autorità sarà indipendente (un’agenzia
autonoma nello svolgimento delle sue funzioni con un’autonomia finanziaria e ovviamente
altamente specializzata con fortissime competenze)
Lezione 17/10
GDPR
Disciplina della privacy risale agli anni ‘90
All’inizio privacy as “right to be alone” ma dopo è stato inteso come qualcosa di più complesso
Due eventi importanti per la storia della disciplina sulla privacy: avvento di internet e degli
smartphones

Regolamento (UE) 2016/679 del Parlamento europeo e del Consiglio relativo alla protezione
delle persone fisiche con riguardo al trattamento dei dati personali, nonché alla libera
circolazione di tali dati. Il regolamento è entrato in vigore il 24 maggio 2016 e si applica dal 25
maggio 2018.
Il GDPR è stato attuato a livello nazionale attraverso il Codice della privacy dunque una
normativa nazionale che dà attuazione specifica alla disciplina europea

Nel 2016 approvazione Regolamento che riforma le discipline precedenti del 1996 e del 2003
per adattare la disciplina sulla privacy ad un mondo che è cambiato velocemente
GDPR sancisce l’applicazione di sanzioni anche di carattere penale in caso di violazione

Anche per la privacy, così come per l’IA, esiste un sistema di governance di grandissima
importanza. Il Garante ha una funzione di governance estremamente importante. È una disciplina
gerarchicamente impostata nel senso che abbiamo un European Data Protection Board la cui
funzione è quella di dare un’omogeneità a livello centrale di questa disciplina poiché se ogni
Paese avesse una propria disciplina completamente diversa dagli altri ciò rappresenterebbe un
problema ad esempio per quelle aziende intenzionate a vendere servizi.
In Italia un ruolo importante è ricoperto dal Garante per la protezione dei dati personali,
un’autorità amministrativa indipendente e autonoma che dura in carica 7 anni: quattro
commissari vengono nominati dai presidenti di Camera e Senato e operano nella loro assoluta
autonomia.
Il Garante ha:
- funzione di vigilanza, controllo e quindi sanzionatoria tanto nei confronti degli operatori quanto
nei confronti dei singoli cittadini
- potere regolamentare ovvero può adottare dei regolamenti

Quando osserviamo la disciplina sulla privacy non dobbiamo limitarci a conoscere il


regolamento e il codice della privacy ma dobbiamo tenere conto anche dei provvedimenti del
Garante, delle decisioni del Garante europeo e poi ci possono essere anche dei codici di condotta
che rappresentano delle normative dettagliate concordate con il Garante per alcune categorie che
trattano dei dati particolari (ad esempio investigatori privati, informatori commerciali...).

Le sanzioni possono essere amministrative di tipo pecuniario per le aziende mentre per le
persone fisiche c’è una responsabilità che può essere anche penale a seguito di reati come il
trattamento illecito dei dati, comunicazione e diffusione illecita di dati oggetto di trattamento su
larga scala...
Esempio pratico di sanzioni: Eni gas&luce è stata sanzionata a pagare 11,5 milioni di euro per
aver acquisito liste di contatti che non avevano prestato il consenso alla cessione a terzi.
Cos’è un dato personale?
- posizione geografica
- dati sanitari
- residenza e domicilio
- orientamento sessuale
- mail (quando è riconducibile a un soggetto specifico)
- numero della carta di identità
- nome e cognome
- dati biometrici (impronte digitali, il volto e in generale ciò che ci rende unici)
- ecc...

I dati biometrici in particolare permettono di indentificarci si apre il tema sulla distinzione tra
identità della persona e identificazione
L’identità è più difficile da comprendere dell’identificazione (per la quale io dispongo di certi
dati ad esempio: ragazzo moro, 30 anni, 1,70 cm di altezza...). Per conoscere l’identità di una
persona devo, per così dire, approfondire la conoscenza che ho di quella persona e quindi è
necessario sapere le sue idee, il suo orientamento politico, sessuale, religioso... L’identità della
persona è in qualche modo un nuovo diritto. Diventa fondamentale tutelarla dal momento in cui
nascono e si diffondono i mass media.
Tra gli anni ’60 e anni ’70 caso giurisprudenziale riguardo l’identità personale in Italia: due
persone, un uomo e una donna, partecipano a un concorso fotografico e si fanno fotografare
rappresentando due contadini che lavorano la terra. Il contesto è quello degli anni del referendum
sul divorzio (ricordiamo che nel 1970 era stata approvata la legge che istituiva il divorzio) che fu
voluto fortemente dalla Dc e dai partiti suoi alleati al fine di abrogare quella legge. Nella
campagna elettorale i promotori del referendum per il sì all’abrogazione utilizzarono l’immagine
dell’uomo e della donna (attraverso i manifesti che esortavano a votare sì al referendum) come
esempio della famiglia modello che lavora la terra. L’uomo e la donna però erano solo amici,
non erano sposati e non erano nemmeno contadini dunque non volevano che la loro immagine
venisse associata al sì al referendum. A quel punto i due fecero causa e da lì i giudici capirono
che il punto fondamentale della questione non si riguardava solo l’utilizzo abusivo
dell’immagine ma soprattutto l’utilizzo strumentalizzato della foto per mandare un messaggio
politico, un’idea culturale diversa da quella del signore e della signora coinvolti. Quell’immagine
venne strumentalizzata nella campagna propagandistica del referendum sull’abrogazione del
divorzio e le due persone fecero causa perché non volevano che la loro immagine fosse accostata
a quel messaggio.

Distinzione fondamentale tra:


- dati personali comuni (permettono di identificare la persona anche indirettamente)
- dati sensibili oggi definiti dati personali (etnia, religione, opinioni politiche, adesione ai
sindacati, dati sanitari e sessuali delle persone...)
- dati giudiziari (relativi alla storia giudiziaria di qualcuno) il dato giudiziario pone il problema
dell’interesse da parte della cronaca a trattare le vicende giudiziarie che coinvolgono personaggi
pubblici e non (e qui si apre il tema del perpetuo rimando a tali vicende anche a distanza di anni
con il risultato di infangare l’immagine di chi è stato protagonista di quei fatti nonostante abbia
già scontato la pena e sia stato riabilitato)
- dati genetici
- dati biometrici
Che cosa non è un dato personale?
- dati aggregati (mappe sull’affollamento dei mezzi pubblici, luoghi pubblici...)
- IP dinamico (lo è invece quello statico)
- la mail non collegata al nome del titolare

A seconda dei dati che abbiamo cambia il trattamento (qualunque operazione o complesso di
operazioni effettuate anche senza l’ausilio di strumenti informatici quindi anche fogli di carta,
concernente la raccolta, la registrazione, l’organizzazione, la conservazione, la consultazione,
l’eliminazione... di dati anche se non registrati su una banca dati) definizione di trattamento nel
GDPR

Soggetti del trattamento:


- l’interessato, persona fisica a cui si riferiscono i dati
- il titolare assume le decisioni di trattamento dei dati
- il responsabile, persona fisica, giuridica, ente preposto al titolare dei dati all’utilizzo e al
trattamento dei dati
- designati, persone fisiche autorizzate a compiere operazioni di trattamento dal titolare o dal
responsabile e che hanno ricevuto specifiche istruzioni

Nel regolamento sulla protezione dei dati personali si trovano, nei primi articoli, i “principi
applicabili al trattamento”:
- liceità dati devono essere trattati in modo lecito
- correttezza devo trattare i dati in modo corretto
- trasparenza devo trattare i dati in modo trasparente e chiaro
- le limitazioni della finalità
- la minimizzazione e certezza dei dati
- le limitazioni della conservazione
- l’integrità
- la riservatezza

La fase giuridica del trattamento non è qualcosa che necessariamente deve passare per il
consenso, sicuramente quest’ultimo è il modo più lineare e diffuso di concessione dei dati
personali però potrebbe essere anche l’esecuzione di un contratto (per fornire un servizio spesso
chi lo eroga deve avere informazioni su di noi) oppure può essere un interesse pubblico (ad
esempio nel caso della sicurezza: le forze dell’ordine acquisiscono informazioni e dati perché c’è
un interesse pubblico che prevale sulla disciplina del consenso) oppure potrebbe esserci un
legittimo interesse (è complicato spiegare cosa si intenda con questo termine perciò l’European
Data Protection Board ha pubblicato delle linee guida per definirlo).

Un punto molto importante da considerare riguarda il fatto che i dati, una volta concessi, non
possono essere utilizzati per qualsiasi tipo di finalità ma solo per quella specifica finalità per la
quale sono stati concessi. Se io cedo i miei dati per avere un servizio da una società quelle
informazioni (concesse solo per quello specifico servizio) non possono essere date ad altri o
utilizzata per altre finalità. I dati inoltre devono essere esatti, non possono essere difformi e i
soggetti titolari di quei dati devono avere il diritto ad aggiornarli costantemente e altresì deve
esserci il principio della minimizzazione dei dati ovvero l’utilizzo minimo per le finalità
necessarie per le quali i dati sono stati concessi. Infine i dati non possono essere tenuti
all’infinito ma devono essere rimossi dopo essere stati utilizzati.

Potrebbero piacerti anche