Microsoft: via dal software gli strumenti di analisi e riconoscimento facciale

Il gigante della tecnologia smetterà di offrire strumenti automatizzati che prevedono il sesso, l’età e lo stato emotivo di una persona e limiterà l’uso del suo sistema di facial recognition

Pubblicato il 22 Giu 2022

Microsoft riconoscimento facciale

Microsoft ha dichiarato di avere pianificato la rimozione delle funzionalità di riconoscimento facciale dal suo servizio di intelligenza artificiale Azure per rilevare, analizzare e riconoscere i volti. Smetteranno di essere disponibili per i nuovi utenti da questa settimana e saranno gradualmente eliminati per gli utenti esistenti entro l’anno.

I cambiamenti fanno parte di una spinta da parte di Microsoft per controlli più severi dei suoi prodotti di intelligenza artificiale. Dopo una revisione di due anni, un team di Microsoft ha sviluppato il “Responsible AI Standard”, un documento di 27 pagine che stabilisce i requisiti per i sistemi di intelligenza artificiale per garantire che non avranno un impatto dannoso sulla società.

I requisiti includono la garanzia che i sistemi forniscano “soluzioni valide per i problemi che sono progettati per risolvere” e “una qualità simile del servizio per i gruppi demografici identificati, compresi i gruppi emarginati”.

Microsoft riconoscimento facciale
Natasha Crampton

Prima di essere rilasciate, le tecnologie utilizzate per prendere decisioni importanti sull’accesso di una persona all’occupazione, all’istruzione, all’assistenza sanitaria, ai servizi finanziari o a un’opportunità di vita sono soggette a una revisione da parte di un team guidato da Natasha Crampton, chief responsible A.I. officer di Microsoft.

“C’è un’enorme quantità di variazioni culturali, geografiche e individuali nel modo in cui ci esprimiamo”, ha dichiarato la Crampton. Ciò ha portato a problemi di affidabilità, insieme alle domande più grandi sul fatto che “l’espressione facciale sia un indicatore affidabile del tuo stato emotivo interno”.

Microsoft: problematico rendere gli strumenti di profilazione disponibili al pubblico

Gli strumenti di analisi dell’età e del genere eliminati – insieme ad altri strumenti per rilevare gli attributi facciali come capelli e sorriso – potrebbero essere utili per interpretare le immagini visive per le persone non vedenti o ipovedenti, ad esempio, ma la società ha deciso che era problematico rendere gli strumenti di profilazione generalmente disponibili al pubblico.

In particolare, ha aggiunto, il cosiddetto classificatore di genere del sistema era binario, “e questo non è coerente con i nostri valori”.

Microsoft inserirà anche nuovi controlli sulla sua funzione di riconoscimento facciale, che può essere utilizzata per eseguire controlli di identità o cercare una determinata persona. Uber, ad esempio, utilizza il software nella sua app per verificare che il volto di un conducente corrisponda all’ID registrato per l’account di quel conducente. Gli sviluppatori di software che desiderano utilizzare lo strumento di riconoscimento facciale di Microsoft dovranno richiedere l’accesso e spiegare come intendono distribuirlo.

Gli utenti saranno inoltre tenuti ad applicare e spiegare come utilizzeranno altri sistemi di intelligenza artificiale potenzialmente abusivi, come Custom Neural Voice. Il servizio può generare un’impronta vocale umana, basata su un campione del discorso di qualcuno, in modo che gli autori, ad esempio, possano creare versioni sintetiche della loro voce per leggere i loro audiolibri in lingue che non conoscono.

“Stiamo adottando misure concrete per essere all’altezza dei nostri principi di intelligenza artificiale”, ha affermato Crampton, che ha lavorato come avvocato presso Microsoft per 11 anni e si è unita al gruppo etico di intelligenza artificiale nel 2018. “Sarà un viaggio enorme.”

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 4