Normative

AI per la sicurezza: le tecnologie di visione AI-Powered

Le sfide poste dalla crescente implementazione di sistemi di riconoscimento facciale AI-Powered fanno emergere l'urgenza di una normativa adeguata. Il FARI è un ente europeo che prova a porre le basi di tale normativa attraverso una ricerca etica condivisa [...]
Gioele Fierro

COO & Engineering Director Globsit

riconoscimento facciale
  1. Home
  2. Intelligenza Artificiale
  3. Connessioni sintetiche
  4. AI per la sicurezza: le tecnologie di visione AI-Powered

Tanto più velocemente una tecnologia irrompe nel mercato, tanto più problematica sarà la sua regolamentazione. A questa verità aderisce anche l’adozione in grande scala di tecnologie di visione AI-Powered, usate sempre più spesso per la sicurezza pubblica e privata. E queste non sono soltanto considerazioni etiche dal puro interesse concettuale, ma sfide applicative pratiche che richiedono una regolamentazione completa e quanto più universale possibile, un sistema legale che copra le necessità dei cittadini e le domande aperte dell’industria che ingegnerizza le soluzioni hardware e software. Una delle criticità più discusse nell’ambito della sicurezza AI-Powered è il riconoscimento facciale.

 

Il problema etico e legislativo del riconoscimento facciale

Il punto centrale del problema etico e legislativo è l’individuazione del giusto trade-off tra le opportunità e, al contempo, i rischi dati dall’integrazione dei sistemi di Computer Vision con i sistemi tradizionali per la sicurezza. Con la giusta spinta normativa, queste applicazioni hanno il potenziale per dar forma a un futuro network-oriented più digitalizzato e meno burocratico. Le realtà industriali che sviluppano tecnologie correlate con l’intelligenza artificiale sono diventate hub di innovazione, e anche le amministrazioni pubbliche dimostrano un interesse crescente verso questa categoria di prodotti per la gestione della sicurezza dei cittadini.

Riconoscimento facciale: il volto umano è oggetto di particolari attenzioni perché ci identifica e rivela istantaneamente tutta una serie di dati che possono essere considerate sensibili. Le AI per la Computer Vision possono estrarre molte informazioni personali da una semplice foto del viso: tratti identificativi, identità di genere, stati d’animo, condizioni di salute e molto altro. Le domande che sorgono al riguardo sono tante: Chi tratterà questi dati? Chi potrà correlarli direttamente al soggetto? Chi e come garantirà il diritto alla privacy?

Per dare risposta certa a queste domande serve una regolamentazione solida e inattaccabile. Al momento, però, a livello nazionale, europeo e internazionale la situazione resta ancora molto oscura e confusa. Possiamo parlare di un vero e proprio fallimento legislativo che potrebbe, da un lato frenare lo sviluppo delle tecnologie correlate all’intelligenza artificiale, e dall’altro mettere in serio pericolo la privacy di tutti i cittadini. Ma di quali norme abbiamo bisogno? La tecnologia per la Computer Vision è in sé neutra, ma può essere usata per il bene, così come per il male e, quindi, va gestita all’interno di un perimetro normativo ben definito, che ne vieti gli usi pericolosi, ma al contempo ne incentivi lo sviluppo etico.

FARI

Le sfide del riconoscimento facciale

Ė molto probabile che nel corso di questa giornata, il lettore abbia utilizzato almeno una volta un sistema di riconoscimento facciale di ultima generazione. Da diverso tempo, questa forma di autenticazione biometrica ha sostituito password e codici d’acceso di smartphone, tablet e laptop di tutti i produttori. E questa appena citata è solo una delle possibili applicazioni dell’AI per la computer vision, che sono limitate esclusivamente dall’immaginazione e dall’abilità ingegneristiche dei coders che le sviluppano.

WHITEPAPER
Cognitive Experience Center: ecco l'AI che può davvero supportare i tuoi operatori!
Intelligenza Artificiale
Networking

Il riconoscimento facciale è già stato implementato in strutture pubbliche, aeroporti, scuole, supermercati, casinò e molte altre facilities industriali. L’utilizzo di questa verticalizzazione dell’intelligenza artificiale cresce a un ritmo stimato superiore al 20% per anno. I benefici sono tangibili, ma purtroppo sono sempre più comuni episodi ingiustizia. Questa realtà emerge in particolar modo quando l’AI è utilizzata dalle forze di polizia in contesti di gestione della sicurezza pubblica. Negli Stati Uniti, ad esempio, sono saliti agli onori di cronaca molti episodi che coinvolgono persone nere come, ad esempio, l’arresto e la detenzione illecita di Robert Williams o, ancora, l’estromissione illecita di una giovane ragazza da una pista di pattinaggio a Detroit.

A seguito delle crescenti preoccupazioni degli utenti e dal contestuale vuoto legislativo, molte tech company come Meta, Amazon e Microsoft, hanno ridotto o, addirittura, del tutto interrotto lo sviluppo delle tecnologie correlate al riconoscimento facciale. Al contempo, però, altre aziende meno scrupolose e anche meno esposte, hanno creato AI-Monster sfruttando milioni di immagini recuperate online, senza alcuna autorizzazione dei legittimi proprietari. Ad esempio, ClearView AI, un’azienda statunitense, ha raccolto miliardi di immagini di volti creando un sistema di riconoscimento che correla i volti a una specifica identità. Questo tool è stato venduto a organismi delle forze dell’ordine di molte parti del mondo, per poi essere dichiarato illegale da molti tribunali (ad esempio, nel Regno Unito e in Australia).

Un regolamento coordinato

Gli esempi citati non fanno che convalidare la tesi dell’urgente necessità di una regolamentazione coordinata a livello internazionale per gestire le AI di riconoscimento facciale e, in generale, tutti i sistemi di Computer Vision che possono estrapolare informazioni sensibili da sorgenti multimediali e non.

Diversi enti locali hanno provato a proteggere i propri cittadini: possono essere citati come esempi dichiarazioni e decreti specifici redatti dalla città di Montreal, dalla città di San Francisco, dalla città di New York. Questo approccio “locale”, però, non è affatto efficace, proprio per la natura globalizzata del software e della stessa rete internet. Lasciare l’oneroso compito di regolamentare l’AI alle Smart Cities è controproducente, dando il via a una frammentazione confusionaria e a una diluizione dei fondi per la ricerca in questo ambito.

La regolamentazione non può fermarsi al solo divieto nell’uso del riconoscimento facciale per la sicurezza pubblica, come oggi succede in molti contesti. Il discorso normativo, per essere considerato completo, deve considerare a più ampio respiro la formazione dei cittadini, la gestione degli appalti pubblici riguardanti la materia, come anche la gestione e l’accesso ai dataset, a oggi in mano principalmente a poche big tech company.

riconoscimento facciale

Il progetto FARI

FARI (AI For the common good) è un progetto non-profit indipendente, fondato dalla Comunità europea con la collaborazione dell’Université libre de Bruxelles e la Vrije Universiteit Brussel, per promuovere una ricerca interdisciplinare sull’intelligenza artificiale. Leggendo il manifesto del FARI appare chiaro che l’organizzazione si ispiri a valori di libertà, uguaglianza e solidarietà, valori che fanno da sfondo a tutti i papers pubblicati.

La ricerca del FARI è, sì, teorica, ma con un attento sguardo analitico sulle implicazioni pratiche e concrete degli oggetti dello studio. L’esplorazione multi-disciplinare è orientata alla comprensione degli impatti dell’intelligenza artificiale sul quotidiano, sulle situazioni reali dove le tecniche di riconoscimento facciale, o altre tecnologie similari, contribuiscono in processi decisionali automatizzati.

I cambiamenti che ci si aspetta dall’uso massivo dell’AI vanno a impattare direttamente sullo stesso tessuto sociale, con risvolti complessi da prevedere sull’economia, sulla sostenibilità ambientale, sull’etica dello stesso stato di diritto. Le ambizioni del FARI mirano a fare luce su questi temi attingendo dalle scienze filosofiche, tecniche, sociali e umanistiche, con la prospettiva di creare un framework sicuro che fornisca gli strumenti per sviluppare sistemi intelligenti che contribuiscano con un apporto positivo all’evoluzione della specie umana.

Conclusioni

Il momento giusto per regolamentare correttamente l’AI è ora. Anzi, a ben dire, il tempo giusto probabilmente era ieri, ma comunque dobbiamo accontentarci di quanto può, comunque, essere fatto a stretto giro.

Come essere umani non abbiamo mai vissuto epoche di sviluppi così rapidi quanto radicali. Questa esponenziale velocità, figlia dello sviluppo tecnologico, rende profonde le implicazioni nella definizione del diritto e della norma, necessari a creare uno schema entro i quali lo sviluppo può trovare la sua strada per l’avanzamento tecnocratico. Una nuova concezione di sicurezza e nuove necessità di privacy segneranno questa epoca e il futuro delle prossime generazioni.

La comprensione e la regolamentazione dei sistemi per il riconoscimento facciale sono tra le priorità più impellenti. Sia dal vecchio che dal nuovo continente arrivano segnali positivi a tal riguardo, ma un incremento degli investimenti pubblici e privati sul tema è necessario e imperativo.

WHITEPAPER
Contact Center, AI e Real Time Analytics: stai adottando l’innovazione in modo corretto?
Big Data
CRM

 

FacebookTwitterLinkedIn
FacebookTwitterLinkedIn