Sui deepfake si muove anche l’Autorità Garante per la protezione dei dati personali

Il fenomeno della falsificazione di foto e video tramite strumenti di intelligenza artificiale ha richiamato l’attenzione dell’Authority che ha aperto una istruttoria contro Telegram e prodotto una scheda informativa per gli utenti del web

Pubblicato il 18 Feb 2021

Flavia Maltoni

Data Protection Consultant

deepfake

Il “fenomeno deepfake” è ormai dilagante. Non stupisce che il Garante per la protezione dei dati personali sia di recente intervenuto sul tema, pubblicando una scheda informativa per mettere in guardia gli utenti dai rischi legati all’utilizzo di app e software che, avvalendosi di immagini o audio reali, consentono la creazione dei deepfake, ovvero foto, video e audio falsi. Tali contenuti fake rischiano di compromettere seriamente la dignità e la riservatezza delle vittime di questa tecnologia.

Come vedremo, comunque, il tema del deepfake era già finito nel mirino dell’Autorità Garante per la protezione dei dati personali, tanto da indurla ad aprire un’istruttoria contro Telegram.

Cosa si intende per deepfake?

Il termine “deepfake”, composto da “deep” che richiama al Deep Learning (ovvero “apprendimento profondo”) e “fake” che significa “falso”, è stato coniato nel 2017 nel contesto di Reddit, una piattaforma sulla quale è possibile condividere contenuti (post testuali o collegamenti ipertestuali) i quali, a loro volta, possono costituire oggetto di una valutazione, positiva o negativa, da parte degli utenti stessi.

Un utente di Reddit, conosciuto appunto con lo pseudonimo “Deepfake”, aveva pubblicato sulla piattaforma alcuni video pornografici in cui comparivano inconsapevoli celebrità, i cui volti erano stati inseriti nei video grazie al ricorso all’intelligenza artificiale.

deep fake

Deepfake del celebre dipinto di Leonardo, “La Gioconda”

I deepfake, infatti, sono foto, video e audio creati grazie a software di intelligenza artificiale che, partendo da contenuti reali (immagini e audio), riescono a modificare o ricreare, in modo estremamente realistico, le caratteristiche e i movimenti di un volto o di un corpo e a imitare fedelmente una determinata voce. In particolare, alla base della creazione dei deepfake c’è il deep learning, ovvero una branca del machine learning (apprendimento automatico) e, più in generale, dell‘intelligenza artificiale. Il deep learning utilizza le reti neurali, ispirate al funzionamento del cervello umano, per apprendere automaticamente e riconoscere il mondo che ci circonda e ricrearne uno realistico.

In altri termini, come precisato dall’Autorità Garante per la protezione dei dati personali, “la materia di partenza dei deepfake sono sempre i veri volti, i veri corpi e le vere voci delle persone, trasformati però in falsi digitali”; tali falsi possono arrivare a consistere in situazioni ricreate da zero, con la conseguenza che le vittime potrebbero trovarsi rappresentate in luoghi o contesti mai frequentati o gli si potrebbero attribuire comportamenti mai realizzati o discorsi mai pronunciati.

Quindi i deepfake costituiscono, in primis, una forma di furto di identità nell’ambito della quale le vittime inconsapevoli perdono di controllo della loro immagine, oltre che delle loro idee e pensieri.

Da Deepfake a Deepnude

Vi è poi un particolare tipo di deepfake che consente di “spogliare” le vittime che finiscono nella sua trappola. È questo il caso del software Deepnude, circolato sulla piattaforma di messaggistica istantanea Telegram, che consente di manipolare le foto, ricostruendo l’aspetto che avrebbe il corpo della vittima sotto gli indumenti.

Un esempio di immagine creata con Deepnude

A ottobre 2020, l’Autorità Garante per la protezione dei dati personali, preoccupata per la lesione alla riservatezza e alla dignità della persona causata da Deepnude, nonché per il rischio che le immagini create mediante il software venissero impiegate a fini estorsivi o di revenge porn, ha aperto un’istruttoria nei confronti di Telegram, al fine di valutare il mancato rispetto delle norme sulla protezione dei dati nella messa a disposizione del software, a favore degli utenti.

Quali sono i maggiori rischi connessi al deepfake?

Una delle problematiche principali del deepfake è rappresentata dal tipo di utilizzo che viene fatto di questa tecnologia. Se, da un lato, infatti, il deepfake può essere impiegato a scopo puramente comico, ad esempio per sostituire il volto di un attore protagonista di un film con quello di un altro, l’uso di questa tecnologia si è riversato principalmente nel mondo della pornografia, che è stato invaso da fake video con protagoniste celebrità come Katy Perry e Scarlett Johansson.

Ma se, in un primo momento, le vittime designate erano personaggi di fama internazionale, il diffondersi dilagante di questa tecnologia, usufruibile anche tramite un semplice smartphone, ha reso ciascuno di noi potenziali vittime della trappola del deepfake.

Ed ecco come questo fenomeno ha finito per avere un forte impatto anche nell’ambito del “sexting” (ovvero lo scambio e la diffusione di immagini di nudo) e del “revenge porn”, mettendo a serio rischio la dignità e la riservatezza delle persone coinvolte, soprattutto se minorenni.

È infatti facile assistere, purtroppo, a casi di condivisione online di contenuti fake, sessualmente espliciti, caricati, con specifico riguardo al revenge porn, da ex partner a scopo di vendetta o di ricatto.

Allo stesso modo, il deepfake è in grado di alimentare altri fenomeni come:

– il cyberbullismo e quindi le foto e i video falsi vengono spesso utilizzati dai giovani per bullizzare, ridicolizzare e persino ricattare i propri coetanei;

– il cybercrime, nell’ambito del quale il deepfake è utilizzato per commettere attività telematiche illecite come lo spoofing, il phishing e i malware;

-le fake news, notizie false capaci di influenzare l’opinione pubblica o incentivare la disinformazione.

È classico l’esempio dei deepfake che mostrano personaggi politici compiere azioni poco lecite o sconvenienti allo scopo screditarli e influire sulle opinioni o sul voto degli elettori.

Come difendersi: le indicazioni dell’Autorità Garante

Nella sua scheda informativa, l’Autorità Garante per la protezione dei dati personali individua le strategie più adeguate a contrastare il fenomeno del deepfake, facendo leva, in primis, sull’esigenza di responsabilizzare gli utenti all’adozione di specifiche cautele. Si suggerisce, in particolar modo, di:

– evitare la diffusione indiscriminata di immagini personali o dei propri cari sui social network, anche per scongiurare il rischio che soggetti terzi si approprino di tali immagini;

– conoscere e riconoscere gli elementi che possano far presumere di trovarsi in presenza di un deepfake come, ad esempio, un’immagine pixellata, un movimento innaturale degli occhi del soggetto ripreso, un’anomalia nelle luci e ombre del video o la deformazione della bocca del soggetto che parla;

– segnalare il presunto deepfake alla piattaforma che lo ospita ed evitare di condividerlo;

– rivolgersi alle autorità competenti laddove si ritenga che il deepfake sia stato utilizzato in modo tale da configurare un reato o una violazione della privacy.

Parallelamente, tra gli strumenti di difesa contro il deepfake, l’Autorità Garante per la protezione dei dati personali menziona le metodologie tecniche individuate da parte delle grandi imprese del digitale. In realtà, ad oggi, le soluzioni tecnologiche non appaiono sufficientemente adeguate, proprio a causa del continuo progresso nel campo dell’intelligenza artificiale.

A titolo d’esempio, ricordiamo i software in grado di analizzare il battito delle palpebre dei soggetti protagonisti di video fake e di rilevare la distonia fra la frequenza del battito risultante dal video e quella reale o anche software che svolgono un’azione preventiva. Questi ultimi vengono applicati ai video per evitare che gli stessi siano successivamente manipolati e agiscono inserendo nel filmato specifici pixel in grado di “ingannare” il meccanismo di deepfake che rintraccia e analizza i volti da manipolare.

In ogni caso resta ferma la possibilità dell’intervento dell’Autorità Garante per la protezione dei dati personali per gestire le violazioni della normativa privacy.

Conclusioni

È certo che, nel mondo dei social network e della rete in genere, il fake non costituisce una novità, tanto che ormai ci si aspetta che l’utente medio abbia acquisito la capacità di discernere i contenuti autentici dai falsi. Ma se nel leggere un semplice post è possibile intuire quale sia il livello di attendibilità da attribuire alla relativa notizia, nel caso dei deepfake la situazione è ben più complessa.

Osservare con i propri occhi una foto o un filmato nel cui contesto un soggetto compie una determinata azione ci induce, istintivamente, ad avvertirlo come credibile, soprattutto alla luce del fatto che le tecniche di deep learning hanno ormai raggiunto un livello di progresso tale da rendere difficilmente smascherabili i contenuti fake.

Per questa ragione è essenziale “allenare” l’utente medio alla consapevolezza che la propria fiducia nei confronti degli elementi condivisi in rete non debba essere sconfinata e, a questo scopo, è sicuramente utile che ciascun utente si impegni a segnalare e a boicottare i contenuti presumibilmente non autentici.

Easy Deepfake Tutorial: DeepFaceLab 2.0 Quick96

Easy Deepfake Tutorial: DeepFaceLab 2.0 Quick96

Guarda questo video su YouTube

Video: Tutorial sull’utilizzo del software Deepfake

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 4