Sei sulla pagina 1di 8

Lezione 24 Maggio 2021:

I profili giuridici con l’impiego di IA sono:


- I cd. “Automated decision systems” potrebbero in futuro conoscere un impiego
all’interno dei procedimenti penali, sostituendo in tutto o in parte la decisione del
giudice-uomo o il ruolo dell’avvocato -> es. il sistema DoNotPay, fondato
sull’intelligenza artificiale, ha vinto più di 160.000 cause nel Regno Unito, e si sta
facendo uso di bot per fornire consulenza legale a basso costo.
- I cd. “Algoritmi predittivi, polizia predittiva e sistemi di profilatura” sono impiegati per
valutare la pericolosità criminale di un soggetto, vale a dire la probabilità che costui
commetta in futuro un nuovo reato (risk assesment).
- Possibili ipotesi di coinvolgimento (come strumento, come autore o come vittima) di
un sistema di IA nella commissione di un reato.
In particolare, gli Algoritmi predittivi = sono uno strumento di prevenzione della criminalità
(mediante la polizia predittiva) e vengono altresì utilizzati nella selezione del personale, nella
valutazione dei lavoratori e degli studenti e per prevedere l’esito di un giudizio (civile,
tributario…).
E’ in corso di studio il sistema CREA, un progetto europeo per la risoluzione alternativa delle
controversie con gli algoritmi equitativi. -> si tratta essenzialmente della mediazione: lo
scopo del software è fondamentalmente di individuare le preferenze delle parti in un
contesto neutrale rispetto alle interferenze esterne, conseguenti all’esistenza di rapporti
logorati o screzi personali che, al di là dell’interesse economico, spesso risultano essere la
vera causa scatenante del conflitto. Le parti, attraverso una procedura guidata, sono
condotte ad esprimere la propria preferenza su cosa esse stesse ritengono equo o
comunque accettabile, nella ripartizione dei rispettivi interessi. Sulla base dei valori e degli
interessi proposti, l’algoritmo offre una soluzione che li rispetti e che permetta di giungere ad
una conclusione accettabile, superando l’envy test.
Un altro aspetto rilevante riguarda la conclusione di atti e documenti, accordi commerciali e
contratti che vengono affidati a sistemi di IA. -> es. i ‘Toga database’ nel quale sono censite
tutte le fattispecie criminose disciplinate dal codice penale e dalla legislazione penale, che
permette di verificare la competenza, la procedibilità, l’ammissibilità a riti alternativi, i termini
prescrizionali e di durata delle misure cautelari, nonché di calcolare la pena per ciascun tipo
di reato. -> es. ‘Ross intelligence’, che è un sistema munito di un ricco database di
giurisprudenza, consente agli avvocati di redigere atti tenendo conto dell’orientamento dei
giudici su un determinato argomento.
= sono due casi in cui l’IA è un mezzo di ausilio.
Un caso significativo è quello affrontato dalla Corte Suprema del Wisconsin: nel 2016 un
giudice del Wisconsin ha condannato alla pena di 6 anni di reclusione Eric Loomis, arrestato
alla guida di un’auto che era stata usata nel corso di un conflitto a fuoco, basandosi sul
responso di un algoritmo che predittivamente lo aveva definito come ‘soggetto ad alto rischio
di violenza’. La Corte doveva valutare la legittimità costituzionale degli algoritmi predittivi e
della polizia predittiva, già impiegati in diversi stati americani per individuare i risk
assessment, cioè il rischio di reiterazione di un reato, e quindi più in generale valutare la
pericolosità sociale di un soggetto.
La Corte ha ritenuto che non costituisce una violazione dei diritti fondamentali affidarsi ad un
algoritmo per la valutazione della pericolosità sociale, e ha inoltre statuito che non sussiste il
diritto di conoscere su quali basi fosse stata elaborata la stringa matematica che decideva
sulla libertà individuale, perché vietata dalla tutela del segreto industriale. Questo algoritmo
si chiama ‘Campas’ e genera dei punteggi per valutare la probabilità di reiterazione di un
reato sulla base di un questionario redatto sullo stesso imputato (questionario che contiene
età del soggetto, razza..).
In virtù di questo caso, alcuni hanno sostenuto che l’algoritmo fosse razzista, cioè
privilegiasse i bianchi rispetto ai neri, che venivano spesso condannati.
Inoltre, se l’algoritmo è combinato con la tecnologia di riconoscimento facciale, l’ufficiale può
scoprire il livello di rischio della persona senza avere neanche il nome; questi strumenti sono
pubblicizzati come un modo per rendere la polizia più sicura e anche meno invadente, dal
momento che i poliziotti non dovrebbero perquisire una persona a basso rischio. (quindi le
indagini sono indirizzate verso persone più pericolose).
Secondo i matematici è impossibile una imparzialità predittiva, in quanto gli algoritmi si
basano su statistiche. Ciò fa sì che il numero complessivo di reati commessi dalle singole
categorie di persone incide indifferentemente tanto sugli innocenti quanto sui colpevoli,
gravando i primi delle colpe dei secondi. Se i neri commettono più reati dei bianchi, ogni
nero avrà maggiore probabilità di essere stigmatizzato ingiustamente. Finché ciascun
individuo rimarrà un’ipotesi statistica dove solo per il fatto del colore della pelle rientra in uno
schema, integra un processo numerico, ogni nero sarà sempre più colpevole di un bianco.
Quindi un nero sarà condannato dalla statistica prima che dalle sue azioni.
“Linear, Non linear, Polynomial, Radial basis function, Sigmoid, Kemel” sono sistemi di
elaborazione che consentono di catturare dati sempre più complessi per distinguere i livelli
di pericolosità sociale.
I falsi positivi sono i casi di errore in cui un innocente viene erroneamente classificato come
presunto colpevole, così come possono essere i casi di errore in cui un colpevole viene
ritenuto innocente. Per cui, se si vogliono ridurre i falsi negativi si devono aumentare i falsi
positivi, e viceversa. Pertanto i matematici dicono che è impossibile elaborare un algoritmo
giusto.
Per queste ragioni il 4 Dicembre 2018, la Commissione europea per l’efficacia della giustizia
del Consiglio di Europa ha emanato la ‘Carta etica europea per l’uso dell’intelligenza
artificiale nei sistemi di giustizia penale e nei relativi ambienti’, ponendo il rispetto dei
seguenti principi:
- Principio del rispetto dei diritti fondamentali
- Principio di non discriminazione
- Principio di qualità e sicurezza
- Principio di trasparenza -> il dovere di trasparenza potrebbe/dovrebbe a sua volta
indurre al riconoscimento del più ampio e nuovo modello del principio di
giustificabilità (explicability), vale a dire del dovere di offrire tutti gli elementi
indispensabili per valutare la sussistenza di eventuali rischi per i diritti fondamentali.
Tuttavia per dare attuazione ad un principio simile si dovrebbe cambiare tutto il
sistema di IA, cosa che risulta molto difficile, per cui non si ha una soluzione. Questo
si pone anche con riferimento alle Delocalizzazione, cioè ad es. dove hanno sede le
app che geolocalizziamo? qual è la sede in cui vengono elaborati e raccolti i dati di
facebook e google?
- Principio di garanzia dell’intervento umano -> questo principio (definito anche ‘Under
user control’ è finalizzato a precludere un approccio deterministico e assicurare che
gli utilizzatori agiscano come soggetti informati ed esercitino il controllo delle scelte
effettuate.
es. l’algoritmo utilizzato nel Regno Unito per stabilire i voti agli esami di maturità nel 2020 è
stato ritirato dal Ministero dell’istruzione perché giudicato discriminatorio.
es. il tribunale distrettuale dell’aia ha deciso che Syri69, un algoritmo sviluppato dal
Ministero degli affari sociali olandesi nel 2014 per scoprire chi avesse maggiori probabilità di
commettere frodi commerciali, fosse gravemente lesivo del diritto alla privacy e ne ha
imposto il ritiro.
- Principio di garanzia del controllo umano
- The principle of meaningful human control (diritto ad una decisione umana)
- The principle of user control
- Principio di realtà e conoscibilità (diritto a conoscere l’interlocutore)
Il Regolamento europeo sulla protezione dei dati 679/2016 sancisce all’art.22 che
l’interessato ha il diritto di non essere sottoposto ad una decisione basata unicamente sul
trattamento automatizzato, compresa la profilazione, che produca effetti giuridici che lo
riguardano o che incida in modo analogo significativamente sulla sua persona.
Il Considerando 71 dello stesso Regolamento parla di un vero e proprio ‘diritto all’intervento
umano e a ottenere una spiegazione della decisione conseguita’ quando ci si trova di fronte
a misure che valutano aspetti personali o incidono significativamente sulla persona.
Inoltre, la Proposta per la regolazione del parlamento europeo e del Consiglio sancisce che
‘le persone fisiche dovrebbero essere informate che stanno interagendo con un sistema di
IA, a meno che ciò non sia evidente dalle circostanze e dal contesto di utilizzo. Inoltre, le
persone fisiche dovrebbero essere informate quando sono esposte a un sistema di
riconoscimento delle emozioni o a un sistema di classificazione biometrica’.

Un altro problema che si profila riguardo ai robot attiene alla proprietà: Eve è un robot
biologo dell’Università di Manchester che ha partendo dai dati sulla malattia e da una
conoscenza base della biologia molecolare, ha formulato ipotesi su quali molecole
farmacologiche potrebbero funzionare, ha progettato esperimenti per testarle, eseguiti in un
laboratorio robotico, ha corretto e scartato l’ipotesi che ha ripetuto il processo fino a ottenere
risultati soddisfacenti.
Halichina è stato il primo antibiotico scoperto da un algoritmo di intelligenza artificiale; si
tratta di un antibiotico ad ampio attivo sui batteri resistenti agli antibiotici. E’ stato addestrato
con 2330 molecole resistenti agli antibiotici. Gli utili del brevetto a chi vanno? Numerosi
scritti di diritto commerciale discutono su a chi spetta la proprietà del brevetto di un farmaco
trovato mediante algoritmo.

L’impiego di IA più inquietante e attuale è quello dei robot killer: i maggiori studi di IA
nascono per scopi commerciali e militari.
L’impiego militare di robot killer o di droni è collegato a tecnologie di potenziamento genetico
che dovrebbero consentire di costruire supersoldati, che dovrebbero essere in grado di
nuotare come delfini arrampicarsi come un geco, correre come un leopardo, dormire solo
due ore come una giraffa, restare a lungo a digiuno come i cani da slitta dell’Alaska. Sono
già in commercio delle ‘neuroprotesi’ capaci di aumentare l’intelligenza, la memoria e altre
funzioni cognitive. Alcune unità militari di elite stanno testando speciali cuffie per la
stimolazione cerebrale, che dovrebbero potenziare la plasticità e le prestazioni mentali e
fisiche.
Il bio-hacking = è il campo in cui è possibile applicare tecniche di ingegneria al
funzionamento degli organi umani.
Il problema che si pone è: quanto vi è di ‘umano’ in un super soldato? I militari, che hanno
l’obbligo di obbedienza, possono sottrarsi a queste forme di potenziamento?
Anche il vaccino contro il cvd19 costituisce una forma di potenziamento. Ma i soggetti
potenziati e depotenziati sarebbero due entità comparabili? Il potenziamento altera la logica
dell’uguaglianza nel godimento dei diritti oppure no? Avrebbero lo stesso statuto sia giuridico
che morale?
Lo stesso vale per i Droni = i droni sono sistemi meccanici di automazione che si limitano a
funzioni di vigilanza e assistenza ai combattenti. Oppure si possono avere droni che sono
sistemi meccanici di automazione in grado di uccidere (cd. lethal weapons systems), che
sono di due tipi:
1. ‘automi armati’ (la maggior parte degli attuali droni) che reagiscono agli stimoli
esterni sotto il controllo più o meno intenso di un operatore umano
2. ‘robot killer’ che, una volta attivati, sono progettati per operare in assoluta autonomia.
-> sono quelli che pongono più rischi in quanto è molto facile che sfuggano al loro
controllo.
Corriamo il serio rischio di trovarci di fronte a sviluppi incontrollabili se non iniziamo sin da
ora a prevedere radicali contro misure rispetto a una tecnologia che non ha nulla a che
vedere con i modelli con cui siamo abituati a confrontarci.
Bostrom, per indicare il rischio di svolte insidiose o di guasti di una programmazione
disattesa, parla di ‘Default tecnologico’ = cioè i rischi connessi ad una ‘superintelligenza’
che diviene progressivamente ‘aliena’, cioè sviluppa una potenza non allineata ai nostri
modelli e quindi indipendente dagli esseri umani, se non addirittura ‘malevola’.
Un rimedio tecnologico potrebbe essere costituito dalla previsione di specifiche forme di
controllo o dalla programmazione di rigidi livelli di satisficing, per cui, raggiunta una certa
soglia di pericolo o realizzato un certo risultato, la macchina viene fermata o si arresta da sé.
(questa è la visione dei tecnopessimisti). Ciò è quello che accade nel romanzo ‘’Macchine
come me’’ di McEwan, in cui i robot preferiscono autodistruggersi perché non riescono ad
accettare il contrasto tra le regole etiche cui sono programmati e le condotte umane. (i robot
si sono accorti che gli esseri umani non rispettano le regole morali ed etiche, per cui
preferiscono autodistruggersi piuttosto che andare contro al codice etico cui erano
programmati).

Oltre ai droni, vi sono le armi biomimetiche = armi che somigliano ad insetti meccanici, dotati
di videocamere, che possono entrare in un edificio dove vi sono degli ostaggi. Si tratta di
robot estremamente piccoli, dotati di videocamere e trasmettitore radio, in grado di scendere
fino a 1000 metri sotto terra.
I missili ipersonici = a differenza dei missili balistici, possono raggiungere e mantenere
velocità a regime ipersonico (tra i 5mila e i 25mila km/h, circa 20volte la velocità del suono).
Essi non seguono una traiettoria di volo balistica, ma prevalentemente orizzontale;
possiedono una notevole manovrabilità che gli consente di cambiare bersaglio fino agli ultimi
istanti di volo.
I cannoni elettromagnetici = sono armi che sparano proiettili iper veloci, che raggiungono gli
8mila km/h. Essi per pura energia cinetica, possono perforare virtualmente qualsiasi
corazza. L’intenzione degli USA è di renderli operativi sui cacciatorpedinieri, ma tuttavia il
primato appartiene alla Cina, la prima nazione al mondo ad avere installato su una nave da
guerra un cannone elettromagnetico.
Lezione 25 Maggio 2021:

Tutto il sistema dell’intelligenza artificiale è basato sul ‘segreto industriale’, su cui a sua volta
si regge l’intero sistema economico.
Oggi i robot sono ‘di servizio’, cioè si occupano di assistenza sanitaria, della cura di bambini
e anziani, di cucinare pietanze e servire cocktail, di pulizie domestiche, agricoltura e
allevamento, droni per operazioni di polizia e di sicurezza, droni per il monitoraggio e la
riparazione di danni causati dal cambiamento climatico, sistemi per la salvaguardia delle
specie a rischio di estinzione, varie tecnologie autoguidate e robotgiudici.
Si parla anche di ‘Carerobots’, cioè socially assistive robots = sono robots destinati ad
essere usati in casa, ospedali o altri luoghi per assistere, aiutare o provvedere alla cura di
ammalati, disabili, bambini, anziani o persone altrimenti vulnerabili. Essi garantiscono e
migliorano l’assistenza nel caregiving.
I migliori risultati ottenuti riguardano l’assistenza a persone autistiche. Questi robot sono in
grado di stabilire e mantenere relazioni sociali, usare segnali naturali come sguardi o gesti,
imparare e sviluppare competenze sociali…
-> es. Romeo è un robot umanoide che studia per diventare il robot domestico ideale per
persone anziane e con ridotte capacità motorie. Potrebbe diventare presto un robot badante
per anziani. E’ alto 146 cm e pesa 36 kg, riconosce i volti delle persone con cui interagisce
grazie a due telecamere montate sulle sopracciglia. Dotato di 37 gradi di libertà, può aprire
le porte, raccogliere oggetti e spostarsi autonomamente da una stanza all’altra della casa.
Romeo imparerà a conoscere tutte le abitudini del suo assistito, compreso il dosaggio del
farmaco che assume regolarmente. Lo aiuterà a rialzarsi nel caso di caduta e se necessario
sarà in grado di chiamare un’ambulanza.
-> es. Buddy o Blue sono invece dei robot disposti per prendersi cura dei bambini, leggono
favole..
-> iCub è il ‘robot bambino’, costruito dall'Istituto italiano di tecnologia di Genova, è tra i robot
umanoidi più avanzati al mondo. E’ uno degli esempi del grado di eccellenza a cui è arrivata
la robotica italiana. iCub è una piattaforma robotica molto evoluta, open source, che viene
testata oltre che in Italia, anche in molti centri di robotica del mondo. I suoi movimenti sono
molto simili a quelli di un essere umano e i suoi gradi di libertà sono 54.

La programmazione open source è fondamentale, in quanto permette di plasmare il sistema


informatico del robot in base alle esigenze specifiche (un robot si comporterà in modo
diverso con un anziano, rispetto che con un bambino). Per cui si forma una sorta di
‘personalità/individualità digitale’.

-> es. Pepper è un robot psicologo. E’ in vendita solo in Giappone ed è stato prodotto da
Aldebaran Robotics per conto di Softbank. E’ alto 120 cm e pesa 28 kg, ha un livello di
interazione ancora superiore ai robot di compagnia come Buddy e Jibo. Egli comprende il
nostro stato d’animo e si comporta di conseguenza. Una telecamera 3D gli consente di
riconoscere i volti delle persone e di analizzare il linguaggio del loro corpo. Quando non sa
rispondere ad una domanda, si connette ad internet e poi memorizza la soluzione.

Uno dei problemi maggiori è l’impiego di questi robot nei confronti dei bambini autistici.
L’autismo è una sindrome, nel senso che ha diversi livelli di gravità (vi sono forme più
leggere e forme che degenerano alla violenza su se stessi o sugli altri). Il problema del
bambino autistico è soprattutto quello di non saper sviluppare adeguati rapporti
interrelazionali, perché il bambino autistico non sa interpretare i segni del corpo che stanno
alla base delle relazioni umane.
Ogni cambiamento, anche il più semplice, è segno di disturbo per un bambino autistico.
E’ stato rilevato che robot come ausilio per bambini autistici possono essere motivo di
miglioramento per la loro salute. -> es. Ask Nao (Autism Solution for Kids) è un software
disponibile per Nao, un robot umanoide elaborato in collaborazione con il Centro autismo
dell’Università di Birmingham. Nao stimola l’attenzione dei bambini affetti da autismo con
una serie di giochi ed esercizi didattici sullo sviluppo della comunicazione verbale e non
verbale. Rivolto principalmente a scuole e centri specializzati nella cura dell’autismo, Nao (il
software) costa circa 1800 euro se acquistato online , cui bisogna aggiungere il costo del
robot che è circa di 7mila euro.
Per Ian Lowe, una insegnante della scuola di Birmingham che ha utilizzato Nao in via
sperimentale, ha affermato che ‘i robot interagiscono meglio con i bambini autistici perché
non hanno emozioni, sono meno minacciosi e più carismatici. Con loro i tempi di reazione si
accorciano e instaurare un dialogo è più semplice’.
Tuttavia si pone una questione: è possibile scegliere l’estensione, il tipo e le modalità di
robot? Chi sceglie? E’ meglio optare per il diritto ad essere assistito da un essere umano?
A ben vedere sono molti i vantaggi nell’essere assistiti da robot -> es. per un anziano è
meno imbarazzante essere vestito, lavato o curato da un robot piuttosto che da un essere
umano.
In un romanzo di Sherry Turkle, ‘’Insieme ma soli’’, l’autrice mette in luce come dipendere da
un robot sembrerebbe essere privo di rischi, ma quando ci si abitua alla compagnia senza
impegni, vivere con le persone può essere opprimente. Dipendere da una persona è
rischioso, ci si rende soggetti al rifiuto, ma ci apre una conoscenza profonda con gli altri. La
compagnia robotica può sembrare innocua, ma ci insegna un mondo chiuso, in cui si ama
solo ciò che è sicuro e fatto con misura, perché ‘ci aspettiamo sempre più dalla tecnologia e
sempre meno dagli altri’.
Ciò mette in luce il cd. ‘Quantified self’ = le varie tecnologie smart interagiscono con gli
esseri umani e se stessi, oltre che tra gli esseri umani e le cose, per mezzo di una rete di
minuscoli sensori e attuatori che seguono, registrano, renderizzano dati fisici, singoli
comportamenti, specifiche condizioni ambientali. La misurazione del sé avviene attraverso
smart phone, tablet oppure svariate applicazioni annesse a dispositivi dotati di sensori.
Possiamo registrare e monitorare continuamente prestazioni fisiche, aspetti specifici del
funzionamento del corpo (es. frequenza cardiaca, pressione arteriosa, metabolismo, livelli
ormonali, condizioni di stress e abitudini alimentari).
Anche avere una casa smart è il nuovo orizzonte: saranno intelligenti il frigorifero, il cestino, i
vestiti, gli elettrodomestici...che registrano e conservano tutte le informazioni sulle nostre
azioni. Il rapporto con le cose diventa lo strumento con cui siamo analizzati, catalogati,
omologati. Quali di queste informazioni sono rilevanti? e per chi? con quanti oggetti
interagiamo? quanti di questi oggetti interagiscono tra di loro, oltre che con noi? Si tratta di
una fitta rete di ‘intelligenze’ che rispondono ai nostri stimoli, assimilano i nostri impulsi,
interpretano e indirizzano i nostri bisogni.
Inevitabilmente la vita quotidiana di ognuno di noi è influenzata da questi strumenti: ad es.
se ci dicono che abbiamo la pressione bassa, che abbiamo fatto pochi passi o che abbiamo
assunto poche proteine, saremmo inevitabilmente indotti a fare il possibile per migliorarci.
Migliorare la comprensione di sé attraverso l’uso di tutti gli strumenti offerti dalla tecnologia è
sicuramente utile, ma non bisogna cadere, per converso, nel plasmare il nostro modo di
vivere influenzando le nostre convinzioni e determinando le nostre emozioni.
I problemi etici e giuridici che emergono sono:
- la possibilità di oggettivare l’anzianità come problema da risolvere attraverso la
tecnologia, nel senso che l’anzianità o una disabilità sarà un problema che non
riguarderà più noi esseri umani, ma un problema affidato alla ricerca del robot
migliore.
- il rischio della riduzione di capacità, libertà, autonomia e dignità delle persone
- la riduzione delle sfere di solidarietà
- la qualità fisica e psicologica all’assistenza
- la dimensione emotiva della riduzione dei rapporti personali
- l’invadenza della sfera privata
- la qualificazione giuridica
- la responsabilità per danni

Anche in materia sessuale sono stati realizzati dei robot, i cd. ‘Sexbot’ o ‘Gynoid’= ossia
macchine sessualizzate e umanizzate che contribuiscono al raggiungimento del piacere
sessuale. Esse sono il risultato dell’incrocio della robotica e dell’intelligenza artificiale con la
psicologia, la criminologia, la filosofia morale e la medicina.
-> es. Samantha, inventato dallo scienziato spagnolo Sergi Santos e da sua moglie Maritsa
Kissamitaki, può assumere diverse modalità: modalità familiare, modalità sesso romantico o
modalità sesso hard.
-> es. Roxy, ha l’aspetto di una donna, è alta 170 cm e pesa circa 27 kg. La sua faccia, stile
e colore dei capelli, comportamenti e carattere possono essere personalizzati a seconda dei
gusti. I tipi di personalità da scegliere comprendono Frigid Farah , Wild Wendy, Young
Yoko… tutti nomi con evidenti allusioni sessuali. La stessa compagnia ha poi lanciato la
versione maschile di Roxy, cioè Rocky. Al momento sia Roxy che Rocky sono in vendita ad
un prezzo di 9995 dollari.

Gli optional si possono scegliere in base ai propri gusti: colore degli occhi, peli pubici (colore
e forma), orecchio (elfo o regolari), capelli, colore della pelle e trucco. Sono di un’altezza
realistica, circa 170 cm, e aventi un peso abbastanza leggero (la più pesante è di 33 kg).

Sono fatti da gomma di silicone e sono pubblicizzati come ‘caldi al tatto’. Questi robot sono
dotati di tutti i sensori del corpo in modo che possano rispondere al tatto, e la risposta può
dipendere dal tipo di personalità scelto dall’utente (e quindi dal tipo di sesso che si vuole
praticare).

Sono diversi i problemi che si pongono in relazione ai sex bot quali: aumentano lo stereotipo
della donna? aumentano le perversioni? fanno sì che diminuiscano fenomeni come la
prostituzione?
Il 9 Aprile 2014 dei senatori comunicarono alla Presidenza del Senato della repubblica la
volontà di depositare il Disegno di legge n. 1442, recante ‘Disposizioni in materia di
sessualità assistita per persone con disabilità’. Attraverso questo disegno di legge si è voluto
introdurre una nuova figura professionale ad hoc, la cd. ‘’assistente sessuale’’, sulla scia di
quanto già realizzato in diversi paesi come Danimarca, Germania, Svizzera, Austria e Paesi
Bassi.
Ciò perché anche persone con disabilità provano desiderio sessuale.
Tuttavia, all’epoca di questo disegno di legge, sono emersi dei limiti giuridici in Italia:
- il divieto di prossenetismo e lenocinio contenuto nella l.20 febbraio 1958 n.75 (legge
Merlin)
- vi è la complicanza della capacità del soggetto di dare un consenso consapevole al
rapporto sessuale e, di riflesso, di liberare la controparte dalla integrazione del reato
di violenza sessuale ex art. 609 bis c.p.
- è colpevole di violenza sessuale chi abusa delle condizioni di inferiorità fisica o
psichica della persona offesa al momento del fatto
- art.519 c.p. =si commetteva violenza carnale chiunque si congiunga con un ‘malato
di mente’ (precludendo di fatto qualsiasi attività sessuale).
E’ rilevante porre l’esistenza di questi robot in quanto si è visto che questi potrebbero essere
d’aiuto a soggetti, al punto tale da poter essere prescritti da un medico o essere forniti dal
sistema sanitario nazionale.
La sessualità delle persone incapaci è un grosso problema, spesso ignorato.
In passato lo Stato della Virginia ha introdotto nel proprio ordinamento una norma volta ad
autorizzare la sterilizzazione compulsiva dei membri della società definiti ‘unfit’, cioè i deboli
di mente, i pazzi, i criminali, gli epilettici, gli alcolizzati, i ciechi, i sordi, le persone deformi e,
in determinate condizioni, anche le persone indigenti.
Il giudice Holmes di fronte al problema di negare la sessualità agli incapaci ha affermato che
“è meglio per tutti se la società, invece di aspettare giustizia per una progenie degenerata
per un crimine o di attendere che muoia di fame per la sua stessa stupidità, impedisca di
perpetuare la propria razza a coloro che sono manifestamente malati”. -> è una
discriminazione? Ci sono state tantissime decisioni giudiziali in proposito e riguardanti anche
il matrimonio di un soggetto incapace.
La Convenzione di Oviedo all’art.7 statuisce che ‘’la persona che soffre di un disturbo
mentale grave non può essere sottoposta, senza il proprio consenso, a un intervento avente
ad oggetto il trattamento di questo disturbo se non quando l’assenza di un tale trattamento
rischia di essere gravemente pregiudizievole alla sua salute’’. -> per cui questa
sterilizzazione è giustificata?
La sessualità di un soggetto incapace è qualcosa di insoluto.

Potrebbero piacerti anche