Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
La tecnologia alla base dei deep fake si basa sull'apprendimento automatico e sulla modellizzazione
generativa, che consentono di creare algoritmi in grado di generare contenuti falsi altamente
realistici. Questi algoritmi utilizzano una vasta quantità di dati di addestramento, come immagini,
video e registrazioni audio, per creare modelli che possono essere utilizzati per generare nuovi
contenuti. La tecnologia dei deep fake ha raggiunto una tale maturità che è possibile creare video
che sembrano autentici, ma che in realtà sono completamente falsi.
Il fenomeno dei deep fake presenta una serie di sfide per la società. Innanzitutto, minaccia la
credibilità dei media e la nostra capacità di distinguere ciò che è reale da ciò che è falso. Ciò può
avere conseguenze significative sulla nostra capacità di prendere decisioni informate e sulla fiducia
che abbiamo nei confronti delle istituzioni e dei media. Inoltre, i deep fake possono essere utilizzati
per scopi di diffamazione, frode e persino per interferire nelle elezioni, minando la nostra
democrazia.
Per affrontare la sfida dei deep fake, è necessario un approccio multi-disciplinare che coinvolga
esperti di tecnologia, giuristi, giornalisti e la società civile. In primo luogo, è importante sviluppare
tecnologie e strumenti che possano rilevare i deep fake e prevenire la loro diffusione. Ciò richiede
un investimento significativo nella ricerca e nello sviluppo di tecniche di intelligenza artificiale in
grado di rilevare i deep fake e di verificare l'autenticità dei contenuti.
In secondo luogo, gli esperti legali devono lavorare per identificare le lacune nella legislazione
attuale e sviluppare normative in grado di affrontare il fenomeno dei deep fake. Ciò richiede anche
un lavoro di sensibilizzazione per educare il pubblico sulla natura dei deep fake e sui rischi che
rappresentano.
Noè Gubiani 1 A 21/05/2023
I deep fake rappresentano una potenziale violazione della privacy, in quanto per esempio, possono
prendere una foto di una persona che esiste realmente, e inserirla in un contesto che non c’entra,
rendendo la cosa potenzialmente diffamatoria verso la persona.
spesso alcuni video possono essere facilmente smascherati per la presenza di glitch (ossia dei salti
nella riproduzione video di alcuni particolari), ma – col miglioramento dei software – tali effetti
saranno sempre più rari.
Il problema sta diventando così diffuso e rilevante che alcuni enti si stanno occupando normare il
settore, oltre che informare il grande pubblico.
La Commissione Europea ha varato delle linee guida sull’uso dell’ Intelligienza Artificiale in cui
viene data una definizione di deep fake (art. 52, comma 3) e viene richiamata la dovuta trasparenza
nell’indicare video come falsi / manipolati.
In conclusione, i deep fake sono sempre più difficili da smascherare (quelli ottenuti coinvolgendo
personaggi noti potrebbero essere smascherati consultando profili ufficiali e/o interpellando i diretti
interessati), e stanno avendo sempre più impatto sociale nella diffusione di fake perché sta
aumentando il realismo aumentandone la credibilità.
Certamente vedremo evoluzioni dei software che ridurranno i “problemi” attuali per aumentare il
realismo dei falsi video, e con esso l’efficacia dell’inganno, come pure indicato dal Servizio di
Ricerca della Comunità Europea.
La miglior arma contro i deep fake sarà uno spirito critico per chiedersi se il video ha ragione di
esistere, e la ricerca di fonti indipendenti senza credere a singole fonti non confermate.