Deepfake: cos’è il lato oscuro dell’AI

Si tratta di una tecnica di intelligenza artificiale basata sull’implementazione di algoritmi di apprendimento automatico per la creazione di immagini e video combinati tra loro, file audio generati o modificati (cd. “skin vocali” o “cloni vocali”) mediante sistemi di intelligenza artificiale

Pubblicato il 01 Apr 2022

Angelo Alù

PhD, Consigliere Internet Society Italia, saggista e divulgatore digitale

deepfake

In un momento storico di crescente proliferazione di notizie false diffuse online, aumenta in modo esponenziale il cd. Deepfake; una tecnica di intelligenza artificiale basata sull’implementazione di algoritmi di apprendimento automatico per la creazione di immagini e video combinati tra loro, file audio generati o modificati (cd. “skin vocali” o “cloni vocali”) mediante sistemi di intelligenza artificiale, che rendono credibili e convincenti – dal punto di vista della percezione degli utenti – i relativi contenuti multimediali veicolati, con l’intento di ingannare il pubblico facendogli credere che gli stessi siano reali.

Si tratta di un preoccupante “lato oscuro” dell’ambiente digitale, da cui possono derivare peculiari forme di impercettibile manipolazione diretta alla commissione di illeciti di varia natura (revenge porn, frodi finanziarie, crimini informatici, ecc.), nonché alla creazione di video pornografici alterati e alla circolazione di fake news al fine di fuorviare l’opinione pubblica, manipolare i prezzi delle azioni o ottenere sostegno elettorale.

Cosa si può fare con il deepfake

Finora, il deepfake è stato utilizzato soprattutto per prendere di mira celebrità e soggetti politici, le cui immagini, frequentemente disponibili online, possono essere utilizzate con facilità per sperimentare queste tecniche (emblematici gli scambi di volti tra il Presidente Donald Trump e la Cancelliera tedesca Angela Merkel o tra il presidente argentino Mauricio Macri e Adolf Hitler , come casi più o meno satirici, rispetto a video più controversi che hanno provocato disordini sociali culminati in un fallito colpo di stato militare nel paese africano del Gabon, come risvolto dannoso del deepfake.

Un altro esempio di deepfake rappresenta i leader mondiali riuniti per promuovere la pace cantando Imagine di John Lennon).

Imagine Sung by Trump, Putin & Other World Leaders (John Lennon Song)

Imagine Sung by Trump, Putin & Other World Leaders (John Lennon Song)

Guarda questo video su YouTube

Video – Un esempio di deepfake: i leader mondiali cantano Imagine di John Lennon

Tuttavia, poiché in Rete il confine tra realtà e finzione diventa sempre più labile e incerto, le ripercussioni negative sull’alterazione delle identità digitali potrebbero danneggiare non soltanto i personaggi pubblici, ma la generalità delle persone, considerato che, anche senza molta conoscenza tecnica dei sistemi di AI, diventa sempre più facile creare deepfake iperrealistici combinando la mole significativa di foto e video accumulati online in grado di tracciare le “impronte digitali” degli utenti (nel 2016, 24 miliardi di persone hanno caricato selfie su Google, mentre l’utente medio di Facebook ha 338 amici, il cui flusso di comunicazioni consente alla piattaforma di ricevere circa 350 milioni di foto al giorno).

deepfake

Un classico esempio di deepfake: l’ex presidente degli Stati Uniti, Donald Trump, intervista se stesso allo specchio

La app di Clearview per il riconoscimento facciale

La diffusione esponenziale di contenuti multimediali disponibili sui social network (postando e taggando immagini e selfie) rende, quindi, chiunque un potenziale bersaglio di tale pratica.

Ciò nonostante, il deepfake stia diventando un grande business commerciale per conseguire profitto, sfruttando il sistema tecnologico di apprendimento automatico.

Sulla scia di una tendenza ormai globale alla condivisione massiva di informazioni personali accessibili in Rete, ad esempio, la società Clearview AI ha sviluppato un’app per il riconoscimento facciale ricostruito sulla base delle foto pubbliche riferibili a una persona con i relativi collegamenti agli indirizzi ove le stesse risultano visualizzabili.

Si tratta di uno strumento di ricerca estremamente pervasivo, utilizzato anche dalle forze dell’ordine negli Stati Uniti d’America per identificare autori e vittime di crimini, grazie alla disponibilità di un consistente database che raccoglie oltre 3 miliardi di immagini recuperate online.

Al netto delle indubbie finalità di rafforzamento della sicurezza a tutela dell’ordine pubblico grazie al supporto offerto alle autorità competenti nella risoluzione delle indagini investigative, risultano evidenti una serie di preoccupanti implicazioni sugli effetti discriminatori e di sorveglianza che applicazioni di questo determinano, al punto da pregiudicare la privacy delle persone.

Tali aspetti sono stati approfonditi nel corso di un’audizione ufficiale convocata dalla U.S. House Committee on Oversight and Reform con l’intento di esaminare i potenziali rischi legati all’uso governativo e commerciale della tecnologia di riconoscimento facciale, ai fini di una possibile revisione del quadro legislativo vigente in materia, che richiede una preliminare analisi delle criticità riscontrate prima di procedere alla regolamentazione normativa di tali strumenti particolarmente invasivi.

È emersa, in tal senso, una generale preoccupazione di fronte al pericolo di esporre gli individui ad una catalogazione profilata delle proprie immagini mediante forme di monitoraggio massivo predisposte in assenza di misure di protezione in grado di salvaguardare i diritti fondamentali delle persone, al punto da giustificare una riflessione più attenta e particolareggiata del settore finalizzata ad introdurre una disciplina che, pur senza formalizzare un divieto assoluto all’uso della tecnologia di riconoscimento facciale, tenga conto di tutti gli interessi che entrano in gioco, soprattutto a tutela degli utenti.

Negli Usa, prima legge federale in materia di deepfake

Di recente, peraltro, proprio negli USA è stata approvata la prima legge federale in materia di deepfake come parte integrante del National Defense Authorization Act for Fiscal Year 2020 nell’ambito di un vivace dibattito alimentato da coloro che criticano i tentativi di limitare il deepfake, invocando a sostegno di tale tesi la vincolatività del primo emendamento americano.

Di certo, i pericoli del deepfake sono reali. Oltre ai rischi connessi alla possibile violazione della privacy, infatti, tali tecniche possono essere utilizzate anche per scopi “politici” da regime governativi per screditare dissidenti oppositori o per destabilizzare la società mediante la circolazione di contenuti multimediali che riducono la fiducia delle persone, minando la credibilità delle fonti così da provocare un vero e proprio “caos” generale.

Sembra delinearsi l’inquietante avvento della cd. “società zero-trust”, in cui le persone non riescono più a distinguere la realtà dalla falsità, in un costante clima di incertezza informativa, alimentando dubbi continui e generali sulla veridicità delle notizie diffuse.

In tale scenario, a fronte del complesso rapporto tra innovazione, tecnologia e diritto – di cui il difficile inquadramento regolatorio del deepfake è la rappresentazione evidente – potrebbero restare irrisolti rilevanti problemi giuridici nella tutela degli individui esposti al rischio di riproduzioni manipolate dei propri dati biometrici per il compimento di numerose attività illecite.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 3