Smart city, i diversi modi di utilizzare gli algoritmi

Il problema principale dell’uso di sistemi di riconoscimento facciale è che un uso spregiudicato dell’intelligenza artificiale da parte delle amministrazioni cittadine rischia di scatenare pericolose reazioni di rigetto da parte della società civile. La parola chiave che l’Europa usa ogni volta che tratta argomenti legati all’intelligenza artificiale è “affidabile”. Un’AI affidabile significa robustezza, trasparenza, equità.

Pubblicato il 29 Ott 2020

3d illustration of futuristic micro chip city. Computer science information technology background. Sci fi megalopolis.

L’AI spiegata agli umani

Due recenti notizie illustrano modi diametralmente opposti di concepire l’integrazione dell’intelligenza artificiale nelle vite dei cittadini, ossia dell’AI nelle smart city. La prima è che Amsterdam e Helsinki hanno pubblicato online un elenco di tutti i servizi di intelligenza artificiale usati dall’amministrazione cittadina. Le due capitali hanno lanciato un vero e proprio registro pubblico dove cittadini e turisti possono prendere visione di quali algoritmi vengono usati e dove, per consentire a tutti di comprendere in che modo l’intelligenza artificiale influenza i servizi e le decisioni dell’amministrazione.

Il sindaco di Helsinki, Jan Vapaavuori, ha dichiarato: “Helsinki vuole essere la città al mondo che sfrutta la digitalizzazione nel migliore dei modi. La digitalizzazione è fortemente associata all’utilizzo dell’intelligenza artificiale. Con l’aiuto dell’intelligenza artificiale possiamo offrire alle persone in città servizi migliori, disponibili ovunque e in qualsiasi momento. In prima fila con la città di Amsterdam, siamo orgogliosi di dire a tutti apertamente per cosa usiamo l’intelligenza artificiale”.

Dello stesso tenore anche le dichiarazioni del vice-sindaco di Amsterdam, Touria Meliani, con delega agli affari digitali: “Gli algoritmi hanno un ruolo sempre più importante nella nostra vita. Insieme alla città di Helsinki abbiamo la missione di creare quanta più comprensione possibile sugli algoritmi e di essere trasparenti sul modo in cui noi – come città – li usiamo. Oggi facciamo un altro passo importante con il lancio di questi registri degli algoritmi”.

I registri sono stati creati dalla finlandese Saidot, un’azienda che crea tool per rendere le tecnologie di intelligenza artificiale “spiegabili”. Ogni registro offre una panoramica dei sistemi usati, con maggiori informazioni sulla tipologia di dati elaborati, la logica operativa e gli enti che li gestiscono. Ad Amsterdam al momento vi sono tre sistemi schedati: uno per il controllo automatizzato dei parcheggi, uno per identificare le frodi negli affitti e uno che aiuta i cittadini a segnalare vari problemi all’amministrazione comunale.

Più numerosi i servizi di intelligenza artificiale a Helsinki, che spaziano da un chatbot per aiutare le persone a trovare i migliori parcheggi cittadini a un sistema che consente alle librerie della città di monitorare lo scambio di pubblicazioni, grazie alle etichette a radiofrequenza RFID.

Anche Nantes, pur usando una procedura diversa, ha messo online informazioni su due sistemi AI usati dall’amministrazione cittadina: un algoritmo che determina se una persona abbia o meno i requisiti per ottenere sconti sui prezzi del trasporto pubblico e un sistema simile che calcola eventuali tariffe agevolate per quanto riguarda la bolletta dell’acqua.

Vari modi di utilizzare gli algoritmi

Queste iniziative rispondono a una precisa richiesta di trasparenza che è sempre più forte da parte di cittadini e associazioni, che vedono l’intelligenza artificiale come una scatola nera dove neanche gli enti che la gestiscono riescono a comprendere il perché di certe decisioni. Purtroppo, in molti casi il rischio è reale, poiché spesso non è possibile comprendere il complicato sistema con cui una rete neurale raggiunge un dato risultato. Quando poi gli algoritmi vengono “calati dall’alto” e inseriti nella quotidianità dei cittadini, la domanda di chiarezza è ancora più impellente.

Dall’altra parte del mondo invece arriva una notizia dal tono decisamente diverso. La città di Buenos Aires ha iniziato a usare il riconoscimento facciale per schedare decine di migliaia di persone anche solo sospettate di aver commesso dei crimini, inclusi bambini. Il database noto come Consulta Nacional de Rebeldías y Capturas (COMARC) infatti contiene anche diversi minori, e il più giovane di loro ha solo quattro anni: M.G. nato il 17 Ottobre 2016 è stato schedato per “crimini contro la persona – lesioni gravi”. Il database è pubblico e contiene informazioni come nome, data di nascita, numero di un documento di riconoscimento, il reato contestato e l’autorità del luogo che ha emanato la richiesta. Secondo l’organizzazione Human Rights Watch il database in certi momenti conteneva anche dati di bambini di appena un anno di vita.

A Buenos Aires il governo cittadino ha deciso di caricare i dati di questo database, incluse le foto, nel sistema di telecamere con riconoscimento facciale presenti in luoghi pubblici come le stazioni ferroviarie. Il sistema, sviluppato dalla russa NtechLab e incorporato nel software di una società argentina, ha un margine di errore del 3 percento, che in un punto affollato come una stazione ferroviaria può portare anche a centinaia di falsi positivi ogni giorno. Ma errori a parte – che in certi casi sono fisiologici – è proprio il fatto che tale sistema includa dati e foto di minori, a volte proprio bambini, a suscitare le proteste più accese.

Ma per trovare ulteriori scivoloni su tecnologie AI da parte di amministrazioni cittadine o aziende pubbliche non serve andare molto lontano. A Parigi qualche mese fa la Régie Autonome des Transports Parisiens aveva fatto partire una sperimentazione per il riconoscimento automatico delle mascherine anti-Covid in una stazione della metropolitana, sperimentazione bruscamente interrotta poche settimane dopo per il parere negativo della Commission nationale de l’informatique et des libertés, ovvero il garante della privacy d’oltralpe. E come non parlare di Como, dove il Comune si è dotato di telecamere per il riconoscimento facciale di Huawei, ma è stato costretto a disattivare tale funzione dopo l’intervento del nostro Garante per la privacy. Una funzione che fra l’altro neanche operava come previsto, poiché il software a quanto pare effettuava solo una “face detection”, ovvero l’individuazione di un volto umano senza l’identificazione dei tratti somatici. In pratica la telecamera poteva vedere che in una data immagine era presente un volto umano, senza però essere in grado di riconoscere la persona né estrarre le caratteristiche del volto.

Smart city e AI: il rischio del rigetto

Il problema principale comunque, in questi e in altri casi, è che un uso spregiudicato dell’intelligenza artificiale da parte delle amministrazioni cittadine rischia di scatenare pericolose reazioni di rigetto da parte della società civile. La parola chiave che l’Europa usa ogni volta che tratta argomenti legati all’intelligenza artificiale è “affidabile”. Un’AI affidabile significa robustezza, trasparenza, equità. Solo così i cittadini potranno iniziare a fidarsi delle tecnologie di intelligenza artificiale, avvicinandosi a esse e imparando a gestirle, a conviverci e a usarle a proprio beneficio. Il contrario significherebbe subirle, o male che vada rifiutarle, in uno slancio che sarebbe visto non come luddista bensì di legittima difesa.

Le città di Amsterdam, Helsinki e Nantes stanno dando il buon esempio, realizzando un elenco pubblico degli algoritmi AI operati dalle amministrazioni comunali che spiega con parole semplici cosa fanno questi algoritmi, perché sono stati messi in funzione e chi li gestisce. I sindaci italiani dovrebbero prendere nota.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 3