Tecnologie

Deepfake, cosa sono e come riconoscerli

Utilizzato in molteplici ambiti, anche illeciti, il deepfake è una tecnica di sintesi di immagini, video e audio, fondata sull’implementazione di algoritmi di intelligenza artificiale. Come si realizza, quali software sono utilizzati, come riconoscerlo, il rapporto con la privacy [...]
Marina Rita Carbone

Consulente privacy

deepfake
  1. Home
  2. Intelligenza Artificiale
  3. Deepfake, cosa sono e come riconoscerli

Il deepfake rappresenta uno degli aspetti più delicati dell’intelligenza artificiale: questa tecnica di sintesi delle immagini e delle voci, infatti, è stata spesso attenzionata dalle Autorità e dalla cronaca in quanto abilmente utilizzata per creare dei falsi contenuti che possono rivelarsi altamente lesivi per i soggetti interessati o per il pubblico, nel caso in cui siano utilizzati per generare delle fake news o dei video alterati di nudo.

Ma cos’è realmente il deepfake e come è possibile riconoscere i contenuti creati mediante questa tecnica?

Cos’è il deepfake?

Come anticipato, il termine “deepfake” (un incrocio della locuzione “deep learning” e “fake”) identifica una tecnica di sintesi di immagini, video e audio, fondata sull’implementazione di algoritmi di intelligenza artificiale, i quali sono addestrati per generare contenuti audio e video fasulli sulla base di contenuti reali. Nel caso dei file audio, si parla anche di “skin vocali” o di “cloni vocali”.

WHITEPAPER
Guida alla marketing automation: le funzionalità indispensabili per raggiungere il tuo cliente
Marketing
Business Analytics

Il termine nasce nel 2017 dal nickname di un utente di Reddit, chiamato deepfakes, che condivideva con la propria community dei video in cui ai volti dei protagonisti si sostituiva il volto di celebrità (come, ad esempio, quello di Nicholas Cage, al fine di renderlo protagonista di diversi film).

Le tecniche di machine learning utilizzate per generare i deepfake sono la “rete antagonista generativa” (dall’inglese generative adversarial network o GAN) e l’autoencoder: mediante la prima tecnica si addestrano due reti neurali in maniera competitiva, in un contesto c.d. di gioco a somma zero, ossia nel quale una delle due reti deve vincere sull’altra e viceversa.

Mediante detto sistema le macchine sono dunque in grado di generare, partendo dai dati utilizzati nella fase di iniziale addestramento, nuovi contenuti assolutamente simili a quelli originali.

Deepfake e revenge porn

Sono molteplici gli ambiti in cui il deepfake è stato utilizzato, molti dei quali purtroppo da ritenersi assolutamente illeciti: la tecnica in esame, infatti, è utilizzata a livello amatoriale anche e soprattutto per generare contenuti pornografici o a scopo di revenge porn, fake news, truffe, crimini informatici. In ambito politico, spesso il deepfake è utilizzato allo scopo di far satira (sono moltissimi i video che ritraggono, in modo satirico, Putin o Trump).

Già nel 2018, moltissimi giornalisti portarono all’attenzione del pubblico i rischi connessi alla diffusione di materiale pornografico online basato sulla tecnica del deepfake, richiedendo un intervento da parte delle piattaforme per limitarne la condivisione e tutelare gli utenti.

Sebbene i contenuti pornografici siano stati bannati dalla maggior parte delle piattaforme, in seguito agli scandali che hanno coinvolto numerose attrici – tra cui Emma Watson, Gal Gadot e Scarlett Johansson – il fenomeno non si è arginato, seppure a fronte dell’inasprimento delle sanzioni penali per i produttori di materiale deepfake a sfondo sessuale. Scarlett Johansson, commentando il problema, affermò nel 2018 al Washington Post che ogni tentativo di rimozione dei deepfake a sfondo sessuale (noti anche come “deepnude” o “nudefake”) si sarebbe rivelato “una causa persa”, e che la diffusione di simili contenuti rappresentava una grave minaccia per le donne, che non avrebbero avuto mezzi per difendere la propria reputazione.

Il deepfake è oggi utilizzato, tuttavia, anche nella ricerca per lo studio delle tecniche di elaborazione di immagini e video digitali sempre più realistici e accessibili.

deepfake

Come viene creato un deepfake?

Sono molteplici i modi in cui è possibile generare un deepfake. Il più utilizzato si basa sull’utilizzo di reti neurali profonde di tipo “autoencoder”, che generano una rappresentazione compressa dei dati immessi come input. Le reti neurali, a partire da un video utilizzato come base, c.d. di destinazione, applica al volto del soggetto originariamente ripreso, mediante una tecnica di sostituzione del volto, le immagini del personaggio di interesse, estratte da foto o videoclip già esistenti.

L’autoencoder, più nello specifico, “studia” i video del soggetto target e lo mappa nell’ambiente, applicandone le caratteristiche fisionomiche.

In tal modo, si ricrea, partendo anche da poche immagini statiche, un video artificioso che riproduce il volto e la voce della persona designata, come se stesse realmente venendo ripresa: i movimenti della testa e del viso, infatti, seguiranno quelli del soggetto originariamente ripreso, rendendo il tutto molto più realistico e credibile.

L’uso delle GAN

Come anticipato nel paragrafo precedente, un altro tipo di tecnica utilizzata per generare deepfake è la GAN: questa sistema rende i deepfake molto più realistici, in quanto – mediante la costante ricerca di difetti nelle riprese – ne rende più difficile la decodifica mediante i programmi realizzati a tal scopo. La quantità di dati necessaria per generare un deepfake tramite GAN, tuttavia, è molto più elevata: conseguentemente, maggiori saranno i dati immessi nel sistema, maggiore sarà la qualità del contenuto generato.

Secondo gli esperti del settore, con l’avanzamento tecnologico sarà sempre più complesso riconoscere i deepfake, con conseguenze potenzialmente molto vaste nel campo politico, in quanto sarà possibile generare dei contenuti fasulli capaci di modificare l’opinione pubblica e alterare il normale equilibrio politico. Per non parlare dei danni che potrebbero derivare dall’uso di detta tecnologia, come detto, nella pornografia o nelle reti criminali.

deepfake

Quali sono i software

Sono oggi molteplici i software dedicati al deepfake, molti dei quali disponibili anche in versione mobile e immediatamente pronti all’uso. Tra queste, vi rientrano applicazioni mobile come Wombo, che consente di sincronizzare il proprio labiale con la musica; Reface, utilizzata per animare piccole GIF, o My Heritage, per animare vecchie foto.

Tra i più noti vi sono anche:

  • DeepFaceLab, che consente di modificare i volti, rimpiazzare l’intera testa nel video di destinazione, invecchiare una personale o alterare il movimento delle labbra;
  • Zao, per creare deepfake a partire da una selezione di clip video;
  • Faceswap, dedicato soprattutto a chi intende apprendere come creare un deepfake, grazie a una sezione dedicata a domande e tutorial.

Anche Adobe ha lanciato una sua applicazione basata sulla medesima tecnologia dei deepfake, denominata Project Morpheus, la quale consente di cambiare le espressioni facciali presenti nei video, o di aggiungere al volto elementi aggiuntivi, come barba e occhiali. L’applicazione, tuttavia, presenta dei limiti tecnici che ne dovrebbero impedire l’utilizzo per lo sviluppo di contenuti lesivi, come la sostituzione dei volti. L’intento perseguito dalla casa produttrice è quello di fornire un aiuto ai registi, al fine di migliorare delle riprese venute male.

Come riconoscere un deepfake

Con il progresso tecnologico, come detto, diviene oggi sempre più complesso riuscire a riconoscere un deepfake, fatta eccezione per video più amatoriali, utilizzati a scopo ludico per sostituire il proprio volto con quello del protagonista di un film o di un quadro.

A tal riguardo, Alex Champandard, esperto di intelligenza artificiale, ha rilevato come sia spesso necessario compiere un’attenta analisi dei video per poter smascherare i falsi dai video reali. Il problema, stando a quanto afferma Champanard, non è solo tecnico: in futuro, infatti, sarà sempre più necessario lavorare sull’autorevolezza delle fonti per comprendere quali siano i contenuti falsi, al fine di stabilire un “rapporto di fiducia con giornalisti, case editrici, editori o altre fonti di informazione”.

Anche alcune piattaforme stanno lavorando a dei sistemi per riconoscere i deepfake: Google, a tal scopo, ha pubblicato un database contenente circa 3mila deepfake, che potrà essere utilizzato da ulteriori software di intelligenza artificiale per riconoscere automaticamente i video fake e distinguerli da quelli veri.

Gli elementi utili per identificare i deepfake

Ci sono, ad ogni modo, una serie di elementi utili per identificare i deepfake:

  • l’innaturalezza del modo in cui il soggetto sbatte le palpebre;
  • movimento anomalo o resa innaturale della pelle e dei capelli, che possono risultare anche sfocati;
  • messa a fuoco innaturalmente morbida;
  • errori nell’illuminazione del viso, che creano anomalie nei video di destinazione, conservando l’illuminazione dell’immagine o del video utilizzato come input;
  • audio non corrispondente all’originale.

Si tratta comunque di errori che i nuovi deepfake stanno progressivamente risolvendo: ciò rappresenta senz’altro un problema per il futuro, non consentendo più di distinguere, quantomeno a occhio nudo, la differenza tra il contenuto originale e il contenuto generato tramite l’intelligenza artificiale.

deepfake

Un volto creato tramite un software di deepface

Deepfake e privacy

A ottobre 2022, il Garante Privacy ha aperto un’istruttoria nei confronti della società fornitrice della app Fakeyou, che genera – a partire da articoli di stampa – realistici file vocali a partire dalle voci di personaggi pubblici noti. Ciò che l’Autorità teme, nel caso di specie, è che l’utilizzo di detto sistema possa ingenerare elevati rischi, conseguenti a un uso improprio di un dato personale come la voce.

Sempre per utilizzo abusivo del deepfake, nel maggio 2021 in Corea sono stati arrestati 94 ragazzi tra i 18 e i 20 anni con l’accusa di aver compiuto diversi reati legati alla diffusione di video pornografici che ritraevano oltre 100 vittime di giovanissima età (tra i 10 e i 20 anni) nell’atto di compiere atti osceni. L’evento di cronaca è stato descritto come un vero e proprio furto di identità realizzato mediante il deepfake.

Sulla tematica, già nel 2020 il Garante Privacy affermava proprio che “Quella realizzata con i deepfake è una forma particolarmente grave di furto di identità. Le persone che compaiono in un deepfake a loro insaputa non solo subiscono una perdita di controllo sulla loro immagine, ma sono private anche del controllo sulle loro idee e sui loro pensieri, che possono essere travisati in base ai discorsi e ai comportamenti falsi che esprimono nei video. Le persone presenti nei deepfake potrebbero inoltre essere rappresentate in luoghi o contesti o con persone che non hanno mai frequentato o che non frequenterebbero mai, oppure in situazioni che potrebbero apparire compromettenti. In sostanza, quindi, un deepfake può ricostruire contesti e situazioni mai effettivamente avvenuti e, se ciò non è voluto dai diretti interessati, può rappresentare una grave minaccia per la riservatezza e la dignità delle persone.”

Il fenomeno del deepnude

Ancora, “In particolari tipologie di deepfake, dette deepnude, persone ignare possono essere rappresentate nude, in pose discinte, situazioni compromettenti (ad esempio, a letto con presunti amanti) o addirittura in contesti pornografici. Con la tecnologia del deepnude, infatti, i visi delle persone (compresi soggetti minori) possono essere “innestati”, utilizzando appositi software, sui corpi di altri soggetti, nudi o impegnati in pose o atti di natura esplicitamente sessuale. È anche possibile prendere immagini di corpi vestiti e “spogliarli”, ricostruendo l’aspetto che avrebbe il corpo sotto gli indumenti e creando immagini altamente realistiche”.

Tant’è che proprio nel 2021, preoccupato dall’attività illecita a sfondo pornografico legata al deepfake, il Garante aveva aperto un’istruttoria nei confronti di Telegram. Sotto accusa, l’elevata diffusione sulla piattaforma di video di deepnude, che esponevano le vittime a gravi lesioni della dignità e delle privacy, “considerati anche il rischio che tali immagini vengano usate a fini estorsivi o di revenge porn e tenuto conto dei danni irreparabili a cui potrebbe portare una incontrollata circolazione delle immagini, fino a forme di vera e propria viralizzazione. La facilità d’uso di questo programma rende, peraltro, potenzialmente vittime di deepfake chiunque abbia una foto sul web.”

Deepfake e dati biometrici

I sistemi di deepfake, infatti, sintetizzando i dati biometrici dei soggetti designati, svolgono un trattamento di dati assolutamente sensibile, che porta il sistema a poter ricollegare una persona specifica a un volto perfettamente ricostruito nella sua tridimensionalità, o a una voce.

Ne consegue la possibilità di utilizzare il deepfake anche per attività illecite mediante il c.d. spoofing (ossia il furto di informazioni mediante la falsificazione di identità di persone o dispositivo, in modo da ingannare altre persone o dispositivi e ottenere la trasmissione di dati).

 

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

FacebookTwitterLinkedIn
FacebookTwitterLinkedIn