Responsible AI, cos’è, perché è così importante

Il bisogno di avere un’intelligenza artificiale responsabile va in controtendenza con lo sviluppo naturale di questa tecnologia. Per assicurare gli eccezionali livelli di precisione richiesti dalle applicazioni in cui viene introdotta, gli algoritmi neurali che la caratterizzano non possono che diventare sempre più lunghi, complicati e oscuri [...]
Responsible AI
  1. Home
  2. Intelligenza Artificiale
  3. Responsible AI, cos’è, perché è così importante

Responsible AI, ovvero l’intelligenza artificiale responsabile, un nuovo paradigma che sta prendendo sempre più piede. Vediamo meglio di cosa si tratta.

Pro e contro dell’intelligenza artificiale

Intelligenza artificiale e machine learning (denotate con AI/ML) sono tra le tecnologie emergenti che più di tutte promettono di cambiare la nostra vita. Dalle diagnosi mediche più precise, alle piattaforme di marketing ed e-commerce, alle auto con guida autonoma, le potenzialità di questa tecnologia sembrano illimitate e sempre più pervasive. I prodotti e servizi equipaggiati e migliorati con l’intelligenza artificiale sono sempre più richiesti dai consumatori, che si aspettano di fare acquisti su misura (in gergo, custom). Una ricerca portata avanti da PwC in materia stima che i servizi e I prodotti basati sull’intelligenza artificiale contribuiranno all’economia globale con un mercato del valore di oltre 15 trilioni di dollari entro il 2030. Sembra dunque che ci siano solo grandi opportunità per chi investe in questa tecnologia.

D’altra parte, come ogni tecnologia, l’intelligenza artificiale risolve dei problemi ma ne introduce al contempo di nuovi. Dilaga infatti sempre di più la consapevolezza che il livello di automatizzazione del lavoro che l’intelligenza artificiale e il machine learning porteranno sarà senza precedenti. Secondo uno studio condotto da McKinsey, il 30% del lavoro svolto dalla metà dei lavoratori sarebbe già automatizzabile. Nel 2030, questo porterebbe nella peggiore delle ipotesi al 14% della forza lavoro (pari a 375 milioni di persone) a doversi trovare un nuovo impiego in quanto l’intelligenza artificiale avrà reso tali risorse obsolete.

Un altro fronte molto dibattuto è quello della perdita del controllo degli algoritmi che caratterizzano l’intelligenza artificiale. Tale perdita di controllo si estende dai dati in input ai risultati in output dei processi di automatizzazione. Per quanto riguarda la perdita di controllo sui dati, questa comprende la mancanza di privacy dei dati personali e il fatto che molto spesso gli utenti non si rendono conto di aver consentito all’uso di tali dati personali, sebbene contro il GDPR. Come perdita di controllo sui risultati in output si intende il fatto che gli algoritmi potrebbero portare a dei bias sconvenienti (basti pensare al classico esempio in cui l’intelligenza artificiale usata per il recruiting favoreggia gli uomini per alcune posizioni tecniche).

Ai responsible

Un esempio di deep fake, immagine generata dall’AI

Il bisogno di intelligenza artificiale responsabile

Si sente dunque sempre di più il bisogno di beneficiare dell’intelligenza artificiale in maniera etica e socialmente più equa. Le aziende che adottano questa tecnologia per accrescere la loro appetibilità nei confronti dei clienti e, quindi, per incrementare la loro fetta di mercato, vogliono farlo senza compromettere i loro valori fondamentali con i quali vogliono fare business. Gli amministratori delegati di sempre più aziende chiedono infatti che gli algoritmi di intelligenza artificiale non operino più come delle scatole nere, ma che siano invece trasparenti e responsabili.

I quattro pilastri della responsible AI

Benché sia facile farsi un’idea di che cosa in teoria siano gli obiettivi dell’intelligenza artificiale responsabile, per raggiungerli davvero è necessaria una tassonomia chiara e ben definita di che cosa voglia poi in pratica dire veramente “responsabile”. Secondo un report di Accenture sull’argomento, i pilastri su cui si poggia l’intelligenza artificiale sono i seguenti:

  1. Governabilità. Ogni membro coinvolto nello sviluppo di un prodotto o servizio che utilizzi algoritmi di intelligenza artificiale deve avere ben chiari i valori dell’azienda o organizzazione in cui opera e le aspettative dei clienti e utenti di tali prodotti e servizi.
  2. Design. Lo sviluppo di prodotti e servizi che utilizzano l’intelligenza artificiale deve iniziare avendo come scopo quello di non tradire la fiducia dell’utente finale. Ecco che la privacy, la trasparenza e la sicurezza dei dati in input devono essere garantiti ad ogni fase dello sviluppo.
  3. Monitoraggio. Una volta immessi nel mercato, tali prodotti e servizi rimarranno sotto stretto controllo da parte di persone umane specializzate, inclusi enti di revisione, per garantire nel tempo dei risultati equi.
  4. Educazione. Per non lasciare nessuno indietro, è importante che si investa nell’educare il più possibile su come funziona l’intelligenza artificiale anche i non addetti ai lavori. In questo modo, gli utenti saranno meglio in grado di capire che cosa comporta da un punto di vista della privacy adottare o no certi algoritmi di intelligenza artificiale.

Responsible AI, due tendenze in opposizione

Il bisogno di avere un’intelligenza artificiale responsabile, basata ad esempio sui quattro pilastri riportati sopra, va ovviamente in controtendenza con lo sviluppo naturale di questa tecnologia. Per assicurare gli eccezionali livelli di precisione richiesti dalle applicazioni in cui l’intelligenza artificiale viene introdotta, gli algoritmi neurali che la caratterizzano non possono che diventare sempre più lunghi, complicati e oscuri. Basti pensare a un’auto che parcheggia da sola. Solo algoritmi altamente sofisticati riescono a processare le informazioni date dai sensori in maniera tale da comandare in tempo reale all’auto quando e quanto sterzare o indietreggiare senza colpire la vettura accanto. Inoltre, un’applicazione come il parcheggio autonomo richiede un team di specialisti e anni di sviluppo. È dunque chiaro che per avere un vero uso nelle nostre vite quotidiane, il funzionamento di questi algoritmi e la spiegazione del perché vengano prodotti alcuni risultati e non altri saranno alla portata di un numero sempre più ristretto di tecnici, i così detti data scientist.

E-Guide
Fashion e luxury retail: nuove strategie grazie ad AI e customer experience
Fashion
Intelligenza Artificiale

Come risolvere allora questo cavillo, ovvero il bisogno al contempo di precisione e di trasparenza?

L’entrata in gioco dei giganti digitali

Un passo verso una sintesi coerente tra queste due tendenze opposte sembra essere già stato fatto dalle grandi aziende che sono il fulcro della ricerca e sviluppo nel campo dell’intelligenza artificiale. I grandi giganti digitali non sono infatti rimasti immuni dalle richieste di avere dei metodi che garantiscano un’intelligenza artificiale più responsabile e, al contrario, mettono a disposizione delle linee guida su come implementare effettivamente degli algoritmi più equi e trasparenti.

Google in primis ha messo a disposizione un toolbox di “Responsible AI” per Tensorflow, la libreria proprietaria di sviluppo di algoritmi di machine learning. Tale toolbox comprende linee guida, tutorial ed API per permettere agli sviluppatori di creare servizi e prodotti che siano davvero dalla parte del consumatore.

Anche Microsoft non è da meno e ha infatti instaurato ORA (Office of Responsible AI) e la commissione Aether (AI, Ethics, and Effects in Engineering and Research Committee) il cui scopo è quello di dare consulenza ai CEO delle aziende di tutto il mondo sulle opportunità ma anche sui problemi e costi sociali dell’intelligenza artificiale e sui come affrontarli.

Di intelligenza artificiale responsabile si è già occupata la IEEE, il maggiore ente di standardizzazione in ambito ingegneristico. In un articolo pubblicato nella loro rivista a marzo del 2020, si sono definiti i framework che caratterizzano l’intelligenza artificiale responsabile, con tanto di esempi pratici su che cosa ciò comporti. Questo è positivo perché fa sperare in un futuro prossimo ad un vero e proprio standard a cui tutti dovranno essere conformi per poter continuare a stare nel mercato.

Conclusioni

L’intelligenza artificiale non potrà essere davvero considerata antropocentrica (in gergo, human-centric) se, oltre a facilitare la vita delle persone, non si prenderà l’impegno anche di proteggerne la privacy e di garantire dei risvolti equi.

Video: fonte Microsoft (in inglese)

FacebookTwitterLinkedIn