Riconoscimento facciale, il pericolo delle truffe

Le frodi perpetrate facendo uso di questa tecnologia sono in aumento. In alcuni casi si ricorre al deepfake, il metodo per creare video con movimenti e audio solo apparentemente reali [...]
Marco Martorana

Avvocato

Lucas Pinelli

Studio Legale Martorana

riconoscimento facciale truffe
  1. Home
  2. Intelligenza Artificiale
  3. Riconoscimento facciale, il pericolo delle truffe

Recenti casi e ricerche hanno dimostrato che le tecnologie di riconoscimento facciale comportano importanti vulnerabilità che vengono sfruttate per compiere truffe. Eppure, la Direttiva (UE) 2015/2366 relativa ai servizi di pagamento nel mercato interno, detta direttiva PSD2, promuove l’utilizzo del riconoscimento biometrico per garantire l’autenticazione forte del cliente, tutelando così gli utenti.

Il riconoscimento facciale, infatti, è diventato uno dei sistemi di intelligenza artificiale più utilizzati nel mercato digitale per potersi connettere a vari account, oppure effettuare pagamenti online con maggior sicurezza, anche considerando che tutt’oggi l’identificazione isolata rimane più precisa dell’identificazione di massa.

Il riconoscimento facciale nella proposta di Regolamento Ue

Con il dibattito sulla proposta di Regolamento UE sull’intelligenza artificiale, le discussioni sull’implementazione di tecnologie di riconoscimento facciale si sono incentrate sui sistemi utilizzati a fini di contrasto in spazi accessibili al pubblico. Tali sistemi consentirebbero la raccolta e l’elaborazione di massa a distanza di dati biometrici, nonché una sorveglianza mirata discriminatoria. Le criticità di queste tecnologie amplificano la discriminazione che le persone di colore, le persone LGBTQ+ e altre già sperimentano nella loro vita quotidiana. È proprio di fronte a questi rischi che più di 170 organizzazioni della società civile, attivisti ed esperti hanno formato una coalizione mondiale per vietare permanentemente la sorveglianza biometrica.

Tuttavia, i problemi legati a tali sistemi non sono limitati alle finalità di contrasto.

Le truffe tramite riconoscimento facciale

Le tecnologie di riconoscimento facciale funzionano mappando un volto utilizzato per creare un’impronta facciale.

Gli esperti della società Experian, che commercializza dati, strumenti di gestione delle relazioni con i clienti e offre anche servizi di prevenzione delle frodi, prevedono una percentuale crescente di creazione di volti e identità false. Un processo particolarmente rilevante per quanto riguarda il crimine finanziario. Per creare un volto, gli hacker utilizzano i punti di diverse impronte facciali per formare una nuova identità. Inoltre, le identità digitali contraffatte o create vengono utilizzate per accedere a determinate applicazioni su smartphone, oppure per passare attraverso la sicurezza di hotel, business center o ospedali.

Tali attività approfittano anche dell’uso sempre più diffuso del deepfake, un metodo per creare video apparentemente reali con movimenti e audio realistici. I deepfake sono costituiti da un database profondo basato sull’intelligenza artificiale che imita accuratamente i volti e le voci delle persone al punto che è quasi impossibile distinguerli dalla realtà.

Così, Alex Polyakov, CEO di Adversa.ai, una società di sistemi di sicurezza AI, ritiene che qualsiasi struttura che abbia sostituito il personale di sicurezza con delle intelligenze artificiali sia potenzialmente a rischio.

Lemonade

Come riportato dal Wall Street Journal, nel 2017, il sistema di riconoscimento facciale dell’assicuratore Lemonade è stato quasi ingannato da un uomo che indossava una parrucca bionda e un rossetto. Il cliente travestito tentava di ottenere un risarcimento per una telecamera del valore di 5.000 euro, utilizzando un’identità falsa. In questo caso, l’AI di Lemonade ha notato l’inganno nelle videocassette. Il video è stato segnalato come sospetto e l’uomo è stato smascherato. Un comunicato dell’azienda affermava che l’usurpatore aveva già presentato un reclamo sotto la sua vera identità.

Cina

WHITEPAPER
Security as a service, scopri le soluzioni più innovative della sicurezza gestita
Intelligenza Artificiale
Sicurezza dei dati

Più recentemente, secondo il Xinhua Daily Telegraph, pubblici ministeri in Cina hanno accusato due persone di aver rubato più di 77 milioni di dollari creando una società falsa che pretendeva di vendere borse di pelle e inviare fatture fiscali fraudolente ai loro presunti clienti. La coppia è stata in grado di inviare fatture dall’aspetto ufficiale ingannando il sistema di riconoscimento facciale dell’ufficio delle imposte del governo locale, che è stato impostato per monitorare i pagamenti e reprimere l’evasione fiscale, tramite video che la coppia aveva prodotto. Così, dopo aver acquistato fotografie ad alta definizione di volti da un mercato nero online e usato un’app per creare video dalle foto per far sembrare che i volti stessero annuendo, sbattendo le palpebre e aprendo la bocca, la coppia ha usato un telefono cellulare progettato per ingannare i sistemi spegnendo la fotocamera e riproducendo invece i video durante gli ID di riconoscimento facciale.

intelligenza artificiale diritto

Truffe tramite riconoscimento facciale: le contromosse delle aziende

Di fronte a tali criticità, aziende come Google, Facebook e Apple stanno lavorando per trovare modi per prevenire le truffe che sfruttano i sistemi di riconoscimento facciale.

Apple

Tra i sistemi più difficili da ingannare c’è quello lanciato da Apple nel 2017 con l’iPhone X. Alla sua conferenza WWDC, l’azienda ha giustamente messo sotto i riflettori la protezione dei dati. Con più di 30mila punti individuati su un viso, il sistema esegue una prima mappatura tenendo conto della profondità. L’azienda utilizza anche un’immagine tramite infrarossi del viso che vengono poi confrontati attraverso una rappresentazione matematica all’enorme database costituito da Apple. Tali dati vengono poi archiviati solo sui singoli dispositivi.

Per garantire la protezione dei sistemi di riconoscimento facciale, Alex Polyakov innanzi citato ritiene che l’intelligenza artificiale debba essere aggiornata regolarmente per identificare gli ultimi processi di truffe in atto. Inoltre, è necessario addestrare gli strumenti di riconoscimento facciale con più dati in modo da renderli sempre più precisi.

ID.me

Secondo Blake Hall, fondatore e Ceo di ID.me, azienda che utilizza un software di riconoscimento facciale per aiutare a identificare le persone per conto di 26 Stati Usa, dallo scorso febbraio la sua compagnia è stata in grado di fermare quasi tutti i tentativi fraudolenti di selfie sui siti del governo. Infatti, la società è migliorata nel rilevare determinate maschere etichettando le immagini come fraudolente e monitorando il dispositivo, gli indirizzi IP e i numeri di telefono dei truffatori ripetuti su più account falsi, afferma. Ora controlla anche come la luce di uno smartphone si riflette e interagisce con la pelle di una persona o un altro materiale.

Facebook

Infine, a giugno, Facebook, in collaborazione con la Michigan State University (MSU), ha presentato un metodo di ricerca per rilevare e attribuire i deepfake che si basa sull’ingegneria inversa da una singola immagine generata dall’intelligenza artificiale al modello generativo utilizzato per produrla. Questo nuovo metodo dovrebbe facilitare il rilevamento e il tracciamento dei deepfake nelle impostazioni del mondo reale, in cui l’immagine deepfake stessa è spesso l’unica con cui i rilevatori di informazioni devono lavorare. Questa collaborazione ha quindi permesso di sviluppare un’intelligenza artificiale che non solo consente di rilevare meglio i deepfake, ma anche di risalire alla loro fonte per scoprire chi li ha creati.

 

FacebookTwitterLinkedIn