Videosorveglianza: intelligenza artificiale per prevenire i crimini. Succede in India

Videosorveglianza, in India, un sistema per prevedere i crimini con l’intelligenza artificiale. L’israeliana Cortica ha siglato una partnership con l’indiana Best Group per testare una tecnologia con la quale migliorare la sicurezza nei luoghi pubblici

Pubblicato il 26 Apr 2018

Videsorveglianza con Intelligenza Artificiale

Videosorveglianza, in India, un sistema per prevedere i crimini con l’intelligenza artificiale. L’israeliana Cortica ha siglato una partnership con l’indiana Best Group per testare una tecnologia con la quale migliorare la sicurezza nei luoghi pubblici

Visionari Ad Astra Federico Pistono

L’associazione non-profit VISIONARI questa settimana ci offre un interessante articolo tradotto da Digital Trends che spiega come l’intelligenza artificiale applicata ai sistemi di videosorveglianza possa elevare i livelli di sicurezza nei luoghi pubblici prevenendo eventuali crimini.

Programmi di intelligenza artificiale promettono di fare tutto, dalla previsione del tempo al pilotaggio di auto autonome, fino alla previsione dei crimini. Ora si sta applicando l’intelligenza artificiale ai sistemi di videosorveglianza, promettendo di contrastare le attività criminali non individuando i reati in corso, ma identificando un reato prima che si verifichi. L’obiettivo è prevenire la violenza come le aggressioni sessuali, ma tali ammirevoli intenzioni potrebbero trasformarsi in incubi pre-crimine come quelli di Minority Report?

Una tale possibilità potrebbe sembrare la trama di un episodio di Black Mirror, ma non è più materia di fantascienza. Cortica, una società israeliana con profonde radici nella sicurezza e nella ricerca sull’intelligenza artificiale, ha recentemente siglato una partnership in India con Best Group per analizzare i terabyte di dati in streaming dalle telecamere a circuito chiuso nelle aree pubbliche. Uno degli obiettivi è quello di migliorare la sicurezza nei luoghi pubblici, come le strade cittadine, le fermate degli autobus e le stazioni ferroviarie.

È già comune per le forze dell’ordine in città come Londra e New York di utilizzare il riconoscimento facciale e l’abbinamento delle targhe come parte della loro videosorveglianza. Ma l’intelligenza artificiale di Cortica promette di andare molto oltre, cercando “anomalie comportamentali” che segnalino che qualcuno sta per commettere un crimine violento.

Il software si basa sul tipo di sistemi di screening di sicurezza militari e governativi che cercano di identificare i terroristi monitorando le persone in tempo reale, alla ricerca di cosiddette microespressioni - minuscoli spasmi o manierismi che possono smentire le intenzioni nefaste di una persona. Tali segni spia sono così piccoli che possono eludere un investigatore esperto, ma non l’occhio dell’intelligenza artificiale che non si distrae mai.

In un incontro a Tel Aviv prima dell’annuncio dell’accordo, la co-fondatrice e COO Karina Odinaev ha spiegato che il software di Cortica è stato pensato per affrontare le sfide nell’identificazione di oggetti che non sono facilmente classificabili secondo gli stereotipi tradizionali. Odinaev ha descritto, ad esempio, i casi limite (come la caduta di un letto da un camion in autostrada) che si verificano in situazioni di guida, proprio il tipo di eventi unici che i programmi che controllano le auto autonome dovranno essere in grado di gestire in futuro.

“Per questo, è necessario un apprendimento non supervisionato,” ha detto Odinaev. In altre parole, il software deve imparare nello stesso modo in cui gli esseri umani imparano.

Direttamente al cervello

Per creare un programma di questo tipo, Cortica non ha intrapreso la strada della rete neurale (che, nonostante il suo nome, si basa su probabilità e modelli di calcolo piuttosto che su come funziona il cervello). Invece, Cortica è andato alla fonte, in questo caso un segmento corticale del cervello di un ratto. Mantenendo un pezzo di cervello vivo ex vivo (fuori del corpo) e collegandolo a un array di microelettrodi, Cortica è stato in grado di studiare come la corteccia ha reagito a stimoli particolari. Monitorando i segnali elettrici, i ricercatori sono stati in grado di identificare gruppi specifici di neuroni chiamati cliques, che elaboravano alcuni concetti specifici. Da lì, l’azienda ha costruito file unici e modelli matematici per simulare i processi originali nel cervello.

Il risultato, secondo Cortica, è un approccio all’intelligenza artificiale che consente un apprendimento avanzato pur rimanendo trasparente. In altre parole, se il sistema commette un errore — ad esempio, anticipa falsamente che una rivolta sta per scoppiare o che un’auto poco più avanti sta per uscire da una strada carrabile — i programmatori possono facilmente risalire al processo o file unico responsabile del giudizio errato. Un grosso vantaggio a confronto con le cosiddette reti neurali di apprendimento profondo, che sono essenzialmente scatole nere con la necessità talvolta di doverle allenare da capo se fanno un errore.

Inizialmente l’intelligenza artificiale autonoma di Cortica sarà utilizzata da Best Group in India per analizzare l’enorme quantità di dati generati dalle telecamere nei luoghi pubblici al fine di migliorare la sicurezza e l’efficienza. Best Group è un’azienda diversificata che si occupa di sviluppo infrastrutturale ed è uno dei principali fornitori di enti pubblici e clienti del settore edile. Vuole imparare a capire quando le cose vanno bene e quando non vanno.

Ma si spera che il software di Cortica possa fare molto di più in futuro. Potrebbe essere utilizzato in robotaxi per monitorare il comportamento dei passeggeri e prevenire le aggressioni sessuali, per esempio. Il software di Cortica è inoltre in grado di combinare dati provenienti non solo da videocamere, ma anche da droni e satelliti. E può imparare a giudicare le differenze comportamentali non solo tra i cittadini che rispettano la legge e i criminali di un tempo, ma anche tra un mercato pacifico e affollato e una manifestazione politica che sta per diventare violenta.

Tali informazioni predittive consentirebbero a una città di applicare la legge in una situazione potenzialmente pericolosa prima della perdita di vite umane. Tuttavia, nelle mani sbagliate, si potrebbe anche abusarne. Un regime dispotico, ad esempio, potrebbe usare tali informazioni per reprimere il dissenso e arrestare le persone prima ancora che abbiano la possibilità di organizzare una protesta.

Una dimostrazione alla NVIDIA GPU Technology Conference di un’AI per il riconoscimento facciale per le forze dell’ordine (Credit: Saul Loeb/AFP/Getty Images)

A New York, durante una dimostrazione di come l’intelligenza artificiale autonoma di Cortica viene applicata alle auto autonome, il Vice Presidente di Cortica, Patrick Flynn, ha spiegato che l’azienda è concentrata sul rendere il software efficiente e affidabile per fornire dati di classificazione più accurati possibili. Ciò che i clienti fanno con queste informazioni — fermare un’auto o farla accelerare per evitare un incidente, per esempio — spetta a loro. Lo stesso vale per il modo in cui una città o un governo potrebbero assegnare le risorse di polizia.

“Le decisioni politiche sono strettamente al di fuori dell’area di Cortica,” ha detto Flynn.

Rinunciare alla privacy per maggiore sicurezza

Tuttavia, il matrimonio dell’AI con reti onnipresenti di webcam sta cominciando a generare più ansia circa la privacy e la libertà personale. E non è solo per i governi dispotici stranieri che la gente di preoccupa.

A New Orleans il sindaco Mitch Landrieu ha proposto un piano di sorveglianza da 40 milioni di dollari per la lotta contro la criminalità, che include il collegamento in rete delle telecamere comunali con i feed di webcam private gestite da aziende e privati. La proposta ha già suscitato le proteste pubbliche dei lavoratori immigrati, preoccupati che i funzionari federali dell’immigrazione utilizzino le telecamere per cercare e espellere i lavoratori privi di documenti.

Nel frattempo, come i soggetti intrappolati in un episodio di Black Mirror, i consumatori potrebbero già essere involontariamente sottomettessi a tale sorveglianza intelligente. La fotocamera Google Clips da 249 dollari, ad esempio, utilizza una forma rudimentale di AI per scattare automaticamente foto quando vede qualcosa che ritiene significativo. Amazon, la cui Alexa è già oggetto di paranoie sulle intercettazioni, ha acquistato la compagnia Ring, del popolare campanello video. GE Appliances prevede inoltre di lanciare nel corso dell’anno un hub per le cucine dotato di videocamera. In Europa Electrolux debutterà quest’anno con un forno a vapore dotato di webcam integrata.

Mentre queste tecnologie sollevano lo spettro del Grande Fratello che monitora ogni nostra mossa, c’è ancora la lodevole speranza che l’uso di un’intelligenza artificiale sofisticata come il programma di Cortica possa migliorare la sicurezza, l’efficienza e salvare vite umane. Non si può fare a meno di chiedersi, ad esempio, cosa sarebbe successo se tale tecnologia fosse stata disponibile e utilizzata nella macchina di Uber quando il diciannovenne Nikolas Cruz si è recato alla Marjory Stoneman Douglas High School per uccidere 17 persone. L’autista di Uber non ha notato nulla di malevolo in Cruz, ma una telecamera dotata di AI avrebbe potuto rilevare microespressioni rivelando le sue intenzioni e allertato la polizia? In futuro, potremmo scoprirlo.

*VISIONARI è un’associazione non-profit che promuove l’utilizzo responsabile di scienza e tecnologia per il miglioramento della società. Per diventare socio, partecipare ad eventi e attività, fare una donazione, visitare il sito: https://visionari.org

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 2