Il riconoscimento facciale con AI: cos’è, come nasce, l’orientamento della Ue

Con questa tecnologia, attualmente detenuta dalla società Clearview, è possibile fare una ricerca e ottenere un nome caricando l’immagine di un volto. Il Libro Bianco europeo non impone restrizioni ma pone le basi per una normativa che si prevede di approvare nel corso del 2020 [...]
Luigi Mischitelli

Privacy & Data Protection Specialist at IRCCS Casa Sollievo della Sofferenza

  1. Home
  2. Intelligenza Artificiale
  3. Il riconoscimento facciale con AI: cos’è, come nasce, l’orientamento della Ue

Come ampiamente risaputo, il riconoscimento facciale è un’applicazione software probabilistica in grado di riconoscere automaticamente una persona in base ai suoi lineamenti facciali (cd. punti nodali) al fine di autenticarla o identificarla.

Riconoscimento facciale: le ultime disposizioni dell’Unione Europea

Il termine “riconoscimento facciale” compare solo quattro volte nel documento che delinea la visione dell’Europa per il futuro dell’intelligenza artificiale. Il documento, noto come Libro Bianco sull’Intelligenza Artificiale, fa parte dell’ambiziosa agenda della Commissione Europea per regolamentare il settore tecnologico dei 27 Paesi membri dell’Unione, pubblicata il 19 febbraio 2020. Gli esperti di etica dell’intelligenza artificiale mettono in guardia contro l’uso non regolamentato del riconoscimento facciale, attualmente utilizzato sia dai governi che dal settore privato. Il fatto che tale controversa tecnologia sia a malapena menzionata nel Libro Bianco rappresenta un notevole cambiamento nella volontà dell’Unione Europea di tracciare una linea dura sul suo utilizzo. Lo scorso Gennaio 2020, una bozza di Libro Bianco ha rivelato che l’Europa stava pensando a un divieto temporaneo di cinque anni sull’utilizzo del riconoscimento facciale, una mossa che fu elogiata dai sostenitori dei diritti digitali ma osteggiata dalla comunità degli esperti di sicurezza. Divieto che non comparve più nella bozza finale. Il Financial Times riferì che il divieto fu rimosso dalle bozze successive per timore che potesse soffocare l’innovazione e compromettere la sicurezza nazionale dei paesi europei. Tuttavia, il documento – non vincolante – stabilisce una definizione per le applicazioni di intelligenza artificiale “ad alto rischio” che possono interferire con i diritti delle persone, come quelle utilizzate nei settori dell’occupazione, dei trasporti, dell’assistenza sanitaria e delle forze dell’ordine. Questi strumenti dovrebbero essere sottoposti a ulteriori test, certificazioni e a una accurata supervisione umana.

Il volto di una persona spesso rivela la sua etnia e il suo genere, motivo per cui il riconoscimento facciale è un ovvio “candidato” alla discriminazione sia razziale che di genere. Il Libro Bianco non impone nuove restrizioni al riconoscimento facciale, ma pone le basi per una normativa che l’Unione Europea prevede di approvare nel corso dell’anno. Una soluzione suggerita dal Libro Bianco richiederebbe che i dati sulla formazione (training data) utilizzati dai fornitori di intelligenza artificiale provengano dalla popolazione locale europea, riflettendo meglio la sua diversità demografica. I “training data” che contengono in misura sproporzionata maschi “bianchi” sono uno dei modi in cui il riconoscimento facciale ha dimostrato di introdurre pregiudizi nei confronti delle donne e delle persone di colore.

Ma Joseph Halpern, professore di informatica alla newyorkese Cornell University, pensa che i “training data” siano solo una piccola parte del problema. Secondo Halpern è risaputo che ci sono problemi con gli algoritmi di riconoscimento facciale a causa di pessimi dataset. Ma ciò non toglie che potrebbero esservi ben altri pregiudizi all’orizzonte. Halpern preferirebbe una chiara dichiarazione delle “aspettative” di un algoritmo, insieme alle sanzioni per il mancato rispetto di tali “aspettative”. Per Halpern i cittadini dovrebbero anche ricevere un chiaro avvertimento su quando il riconoscimento facciale potrebbe essere usato. Anche se la proposta suggerisce una certificazione di intelligenza artificiale “affidabile”, che richiederebbe la conformità negli usi a basso rischio, le stesse richieste e limitazioni non sono imposte alle forze dell’ordine. Secondo Halpern si va verso un “utilizzo cinese” del riconoscimento facciale, che identifica le persone in maniera eccellente.

Il riconoscimento facciale utilizzato negli spazi pubblici, senza il consenso di una persona, è emerso come un punto controverso in Europa. La Germania sta progettando di installare telecamere per il Riconoscimento Facciale nelle stazioni ferroviarie e negli aeroporti, nonostante l’opposizione delle associazioni a tutela della privacy. La seconda vicepresidente della Commissione Europea Margrethe Vestager, ha riconosciuto che, sebbene tale tecnologia possa potenzialmente violare il GDPR, vi sono comunque delle eccezioni per la pubblica sicurezza. Ma i critici avvertono che una tale scappatoia dà ai governi la libertà di installare una tecnologia di sorveglianza in stile “orwelliano” negli spazi pubblici.

Secondo Amba Kak, direttore della strategia globale e dei programmi dell‘AI Now Institute della New York University, è giusto che il rapporto dell’Unione Europea riconosca che il riconoscimento facciale quando viene utilizzato negli spazi pubblici, rappresenti una minaccia per i diritti fondamentali e per i dati personali, poiché non si limita a prescrivere limiti rigorosi, ma raccomanda anche l’apertura di un ampio dibattito europeo sull’argomento. È urgente, afferma Amba Kak, che la Commissione assuma un ruolo guida nel tracciare “linee rosse” intorno al riconoscimento facciale, in particolare per quanto riguarda la questione della concentrazione del potere e dei danni che questa tecnologia presenta per la società civile.

Stephanie Hare, una ricercatrice di etica dell’intelligenza artificiale, definisce “deludenti” talune omissioni dal Libro Bianco. Secondo Hare, senza un divieto generale i singoli paesi membri dell’Unione Europea saranno responsabili della regolamentazione del riconoscimento facciale. E ciascun paese europeo ha un’opinione diversa sull’etica e sulla legalità di tale tecnologia.

L’autorità svedese per la protezione dei dati personali (Datainspektionen) ad esempio, ha consentito l’uso del riconoscimento facciale per identificare i sospetti criminali, ma ne ha bloccato l’uso nelle scuole. La Francia sta utilizzando il riconoscimento facciale nel suo programma nazionale obbligatorio di identificazione (“lo SPID francese”), che è attualmente contestato da un gruppo per la tutela della privacy.

Il difficile rapporto fra la Ue e le “big tech” dell’AI

Ma l’Unione Europea non si interessa solo alla tematica del riconoscimento facciale. Ultimamente, infatti, sta incalzando le big tech, Google e Facebook in primis. L’Unione Europea non solo ha sottoposto queste due aziende “affamate di dati personali” a indagini antitrust, ma ha anche delineato piani che potrebbero creare uno o due giganti della tecnologia in Europa. Come delineato in due documenti programmatici, cambierà la legislazione dell’Unione Europea al fine di promuovere la raccolta, la condivisione e l’elaborazione commerciale dei dati, così come lo sviluppo della tecnologia di intelligenza artificiale in Europa. E come risultato, più di una società con sede in uno degli Stati Membri UE potrebbe presto emergere per sfidare il predominio delle big tech nell’economia dei dati del XXI secolo.

WEBINAR
Blockchain, Iot, AI per una Supply Chain intelligente e più efficiente
Blockchain
Intelligenza Artificiale

La “strategia europea per i dati” della Commissione Europea ha un chiaro obiettivo nei confronti dei “titani” tecnologici americani. Attualmente, un piccolo numero di aziende big tech detiene una gran parte dei dati del mondo. L’Unione Europea prevede di modificare la sua politica e normativa in modo da creare uno spazio unico europeo, con vero mercato unico dei dati che, garantendo il flusso dei dati all’interno dell’Unione Europea, favorirà le aziende europee a scapito di quelle straniere (es. USA). In definitiva, l’obiettivo di tutto questo è quello di rendere l’Unione Europea e le sue grandi aziende tecnologiche attori significativi sulla scena globale. L’Unione Europea dovrebbe creare un ambiente politico attraente in modo che, entro il 2030, la quota europea nell’economia dei dati –memorizzati, elaborati e utilizzati in Europa – corrisponda almeno al suo peso economico.

In particolare, l’Unione Europea propone una serie di cambiamenti specifici. In particolare, vuole incentivare la condivisione dei dati e l’apertura tra le aziende con sede in Unione Europea, in modo che poche aziende “fortunate” possano accumulare le quantità di dati che hanno trasformato Google e Amazon in aziende da mille miliardi di dollari. Un modo per farlo è quello di riconsiderare il diritto della concorrenza dell’Unione Europea, che si basa su pratiche di condivisione dei dati anticoncorrenziali. La Commissione fornirà maggiori indicazioni alle parti interessate sulla conformità degli accordi di condivisione dei dati e di messa in comune dei dati con il diritto della concorrenza dell’UE attraverso un aggiornamento delle linee guida per la cooperazione orizzontale. Ciò potrebbe essere molto significativo. In teoria, tale mossa potrebbe consentire a diverse grandi imprese dell’Unione Europea di riunirsi e di accettare di condividere i dati solo tra di loro, a spese dei loro concorrenti. Di conseguenza, alcune aziende focalizzate sui dati potrebbero diventare molto grandi e potenti, creando l’equivalente europeo di Google o Facebook.

Naturalmente Google, Facebook e altre aziende americane beneficeranno anche di qualsiasi nuova proposta riguardante la condivisione dei dati, purché operino nell’Unione Europea e rispettino le leggi comunitarie. Tuttavia, il nuovo documento sulla strategia europea in materia di dati mira anche a promuovere una maggiore condivisione degli stessi dati tra i governi e le imprese, riformando potenzialmente anche alcune delle sue norme sugli aiuti di Stato per facilitare tale condivisione. La Commissione Europea esaminerà il rapporto tra il sostegno pubblico alle imprese (ad esempio, per la trasformazione digitale) e la riduzione al minimo delle distorsioni della concorrenza attraverso i requisiti di condivisione dei dati per i beneficiari. Potenzialmente, ciò significa che le nuove leggi europee sui dati potrebbero consentire agli Stati membri dell’Unione Europea di fornire un maggiore sostegno finanziario alle imprese europee, aiutandole così a crescere a preferenza dei concorrenti non supportati. Anche in questo caso, il risultato potrebbe essere quello di favorire la creazione di un serio rivale per le aziende tecnologiche americane.

In definitiva, il documento politico delinea come l’Unione Europea voglia superare le barriere della condivisione dei dati al suo interno, così come voglia migliorare l’infrastruttura digitale europea creando standard di interoperabilità. Presi nel loro insieme, tali assi strategici faciliteranno la crescita di uno spazio europeo dei dati all’interno del quale alcune aziende con sede in Unione Europea potrebbero assumere un ruolo di maggior rilievo. Tale sviluppo sarà necessario se l’Unione Europea vorrà raggiungere i suoi obiettivi per l’economia dei dati, dato che l’intelligenza artificiale è vitale per il data crunching. E, cosa interessante, il Libro Bianco sull’Intelligenza Artificiale rivela che l’Unione Europea indagherà sull’introduzione di eccezioni per l’uso del riconoscimento facciale, che è severamente limitato dall’attuale legislazione dell’Unione Europea.

Infatti, se l’Unione Europea vorrà seriamente mettere in discussione il dominio dei dati da parte dell’industria tecnologica americana, potrebbe alla fine dover “allentare” alcune delle sue norme più scrupolose. Questo è preoccupante per i cittadini europei, che potrebbero soffrire a spese del desiderio dell’Unione Europea di competere con Google, Amazon e Microsoft.

Tuttavia, le nuove proposte sono almeno altrettanto preoccupanti per queste stesse aziende americane, che potrebbero trovare il loro controllo monopolistico del mercato dei dati seriamente indebolito in Europa.

Il caso Clearview

Un martedì sera di ottobre 2018, John Catsimatidis, il miliardario proprietario della catena di negozi di alimentari newyorkese Gristedes, stava cenando al famoso Cipriani, un ristorante italiano di lusso nel quartiere di SoHo a Manhattan, quando sua figlia Andrea è entrata. La figlia aveva un appuntamento con un uomo che il padre non riconosceva. Dopo che la coppia si sedette a un tavolo, Catsimatidis – a debita distanza – chiese a un cameriere di andare a fare una foto alla coppia, così da poter identificare l’uomo con il quale era in compagnia la figlia. Successivamente Catsimatidis caricò la foto su un’app di riconoscimento facciale, la allora sconosciuta Clearview AI.

L’azienda dietro a quest’app è salita recentemente alla ribalta per aver creato un database di miliardi di foto, scaricate da siti come Facebook, Twitter e LinkedIn. In pochi secondi, il Catsimatidis stava visualizzando una collezione di foto dell’uomo del mistero, insieme agli indirizzi web dove sono apparse. L’appuntamento di sua figlia era con un investitore di San Francisco. Catsimatidis si giustificò con la figlia – venuta a sapere dell’impresa del padre e sconcertata per le “abilità tecnologiche” del medesimo – dicendole che voleva assicurarsi che l’uomo con cui usciva non fosse un ciarlatano o, comunque, un individuo poco raccomandabile.

Clearview era sconosciuto al grande pubblico fino a gennaio 2020, quando il New York Times riferì che la start-up “segreta” aveva sviluppato un sistema di riconoscimento facciale rivoluzionario, utilizzato da centinaia di forze dell’ordine in giro per il mondo. La società si trovò rapidamente ad affrontare un contraccolpo su più fronti, con Facebook, Google e altri giganti della tecnologia pronti a dar battaglia. Sono state intentate cause legali in Illinois e Virginia, e il procuratore generale del New Jersey emise una moratoria contro l’applicazione di Clearview in quello stato. In risposta alle critiche, Clearview pubblicò un “codice di condotta”, sottolineando in un post del suo blog che la sua tecnologia era disponibile “solo per le forze dell’ordine e con lo scopo di selezionare professionisti della sicurezza da usare come strumento investigativo”. Clearview ha riconosciuto che gli strumenti “incisivi” hanno sempre il potenziale per essere abusati, indipendentemente da chi li utilizza, per cui l’azienda avrebbe preso la minaccia molto seriamente. Di conseguenza, l’applicazione Clearview – ha dichiarato la start-up – è dotata di salvaguardie integrate per garantire che i professionisti addestrati la utilizzino solo per lo scopo previsto: aiutare a identificare gli autori e le vittime dei crimini.

Il New York Times, in prima linea nella vicenda, ha tuttavia identificato più persone con accesso attivo alla tecnologia di Clearview, peraltro non appartenenti alle forze dell’ordine. E per più di un anno prima che l’azienda diventasse oggetto di pubblico dibattito – quindi già dal 2018 – l’app era già liberamente utilizzabile in natura da investitori, clienti e “amici” dell’azienda. Coloro che avevano accesso a Clearview usavano il riconoscimento facciale alle feste e agli incontri d’affari, dando dimostrazioni del suo potere per divertimento o usandolo per identificare persone di cui non conoscevano o non potevano ricordare i nomi.

Tornando al signor Catsimatidis, egli sentì parlare di Clearview per la prima volta dal suo amico Richard Schwartz, cofondatore della società Clearview, che ha servito come assistente di Rudolph W. Giuliani quando costui era sindaco di New York. La scorsa estate 2019, il signor Catsimatidis ha condotto un progetto di prova con Clearview in un mercato dell’East Side Gristedes. Secondo Catsimatidis, Clearview provò ad utilizzare il sistema di intelligenza artificiale per identificare taccheggiatori o persone che avevano “ripulito” dei negozi. Chi utilizzò “in prova” Clearview al tempo affermò di aver utilizzato un “buon sistema” che ha aiutato il personale di sicurezza a identificare gli acquirenti “problematici”.

BuzzFeed News ha riferito che altre due entità, un sindacato dei lavoratori e una società immobiliare, condussero delle prove con un sistema di sorveglianza sviluppato da Clearview per segnalare gli individui che ritenevano rischiosi. Altri utilizzatori di Clearview sono stati Best Buy, Macy’s, Kohl’s, la National Basketball Association e altre organizzazioni.

Quando Clearview sviluppò per la prima volta il suo servizio di riconoscimento facciale nel 2017, i fondatori Hoan Ton-That e Schwartz erano incerti su chi potesse finanziarlo, così “corteggiarono” una serie di clienti tra cui società immobiliari, banche e rivenditori. Allo stesso tempo, Clearview cercava altri investimenti. Molti degli individui a cui l’azienda si rivolse ottennero un’utenza dedicata per l’accesso all’app.

Clearview ricevette un investimento di circa 1 milione di dollari nel luglio 2018. Tra i suoi sostenitori vi erano l’investitore miliardario Peter Thiel, il venture capitalist David Scalzo e Hal Lambert, un investitore texano che gestisce un fondo quotato in borsa che traccia le aziende che si allineano con la politica del partito Repubblicano Usa. Ma quando si spinse alla ricerca di investimenti “seri”, nel 2019 Clearview si mise a contattare diverse società di investimento, tra cui la Sequoia Capital e Khosla Ventures. L’accesso all’app fu offerto come “benefit ai benefattori”. Doug Leone, un partner miliardario di Sequoia Capital, ricevette un account personale, poi revocato quando la Sequoia Capital si ritirò dall’investimento. A settembre 2019, l’attore e investitore Ashton Kutcher, ospite alla serie web YouTube “Hot Ones”, descrisse un’app che con la conoscenza odierna degli eventi pare molto simile a Clearview. L’attore disse di avere un’app nel suo smartphone in fase beta che permetteva il riconoscimento facciale delle persone. Ma l’attore si spinse oltre, aggiungendo che con tale app gli era permesso di trovare una persona, i suoi dati, il suo account ecc. partendo da una foto dell’interessato.

Il cofondatore Hoan Ton-That – che sostiene ancor oggi che Clearview non stia facendo nulla di sbagliato – afferma che la sua app replica semplicemente quello che fanno gli altri motori di ricerca. Invece di permettere agli utenti di internet di cercare le immagini pubbliche delle persone per nome, come si può fare su Google, Clearview permetterebbe loro di fare una ricerca caricando l’immagine di un volto. Per ora, c’è da dire, è un potere che Clearview controlla e che può gestire a suo piacimento.

In ottobre 2019, Clearview ha chiesto a Nicholas Cassimatis, un esperto di intelligenza artificiale, di aiutarlo a condurre un test di precisione interno. Il test consisteva nell’analizzare i volti di 834 politici federali e statali. Gli algoritmi di Clearview identificarono accuratamente ogni politico. Dopo che il test venne completato, a Cassimatis venne permesso di tenere l’app di Clearview sul suo telefono. Da allora Cassimatis eseguì dozzine di ricerche, con foto scattate in luoghi sia illuminati che scuri, ogni volta con successo (Before Clearview Became a Police Tool, It Was a Secret Plaything of the Rich. The New York Times).

 

DIGITAL EVENT 13 OTTOBRE
Customer experience: tutti i vantaggi offerti dai processi di Digital Identity
CRM
Intelligenza Artificiale

 

FacebookTwitterLinkedIn