Scenari

Human-centered AI: come progettare sistemi di AI incentrati sull’uomo

L’implementazione di sistemi allineati ai valori, ai principi e alle norme civili a cui noi umani facciamo riferimento, rappresenta un valore aggiunto per le aziende. L’adozione del design, cioè di metodi di problem solving, permette di rivelare le reali necessità di coloro che utilizzeranno o subiranno gli effetti dei prodotti e servizi alimentati dall’AI; un passaggio cruciale per identificare strategicamente i casi d’uso da implementare

Pubblicato il 25 Mag 2023

Mara Pometti

Associate Design Director McKinsey & Company

AI

Dopo essere stata nascosta per anni nel mondo dell’IT, nel back-end di applicazioni tese a ottimizzare e accelerare processi aziendali, l’AI ha fatto il suo debutto in scena con l’avvento di ChatGPT. Assumendo le sembianze di una potente chatbot, l’AI ha manifestato tutte le sue potenzialità a oltre 100 milioni di utenti in sole poche settimane dopo il suo rilascio nel novembre 2022.  L’implementazione dei grandi modelli del linguaggio e dell’AI generativa ha reso possibile l’esecuzione di nuovi compiti, che permettono di ampliare le abilità umane e di velocizzare tediosi processi manuali, come l’interpretazione di video e immagini, la sintesi di documenti e la creazione di numerose varianti dello stesso testo. L’utilizzo di ChatGPT, ma in generale dei Large Language Model di cui GPT fa parte, hanno accelerato l’urgenza di adottare l’AI. Oggi, più di prima, la human-centered AI, ossia l’implementazione di sistemi di AI allineati ai valori, principi e norme civili a cui noi umani facciamo riferimento, rappresenta un valore aggiunto per le aziende. L’approccio human-centered garantisce un’implementazione responsabile dell’AI e al contempo ne assicura la creazione di valore. Ma come può un’azienda affrontare tutte queste complessità? Vediamo di seguito le possibili azioni per infondere un approccio human-centered nell’applicazione dell’AI.

Il report McKinsey sullo stato dell’AI

Fino a questo momento le aziende hanno fatto fatica a implementare l’AI su larga scala. Il report di McKinsey sullo stato dell’AI nelle aziende mostra che il suo tasso di adozione nel 2022 è rimasto intorno al 50%. Le aziende, infatti, negli ultimi anni hanno per lo più sviluppato singole iniziative (pilot) all’interno di diverse unità di business, spesso senza una visione strategica complessiva degli obiettivi da raggiungere e dei problemi da risolvere attraverso l’AI. Consci delle nuove sfide, ma anche delle potenzialità offerte da questa tecnologia, i leader in data e AI si interrogano su quali metodi adottare per incoraggiare lo sviluppo dell’AI gestendo i potenziali rischi annessi.

While AI adoption globally is 2.5x higher today than in 2017, it has leveled off over the past few years.

L’AI non è più una questione meramente tecnica. Implementare sistemi di AI oggi significa scontrarsi con sfide a più livelli: risultati di business, leggi, norme civili, design, conseguenze etiche, problemi tecnici, questioni di governance. La combinazione di tutti questi aspetti necessita di nuovi metodi che ne strutturino l’adozione.

Responses show an increasing number of AI capabilities embedded in organizations over the past five years.

Combinare metodo scientifico e pratiche di design alla strategia di intelligenza artificiale

Un articolo pubblicato da MIT Sloan Management Review stima il tasso di fallimento dei progetti di AI a più dell’80%, a causa della mancanza di identificazione dei problemi da risolvere prima della loro implementazione. Spesso, infatti, accade che i team di analitycs e data science si gettino a capofitto sullo sviluppo di soluzioni senza una chiara comprensione del motivo per cui vogliono adottare l’AI. Per riuscire a creare soluzioni di valore, è indispensabile che l’implementazione dell’AI sia preceduta da una fase strategica che combini un rigoroso metodo scientifico a metodi di design, come ad esempio il design thinking e la user research, che si concentrano sulla ricerca e l’analisi delle esigenze e degli intenti delle persone e che le traducono in soluzioni.

Immagine: MIT Sloan Management Review

È solo quando risolve problemi reali nella vita degli utenti che l’AI genera valore. L’adozione del design, cioè di metodi di problem solving incentrati sull’uomo, permette di rivelare le reali necessità di coloro che utilizzeranno o subiranno gli effetti dei prodotti e servizi alimentati dall’AI. Questo passaggio è cruciale per identificare strategicamente i casi d’uso da implementare.

La consapevolezza dei problemi che i sistemi di AI possono risolvere permette di stabilire una scala di priorità dei progetti su cui investire, con una stima quali-quantitativa del valore generato. Definire un problema è sempre il primo passo verso la sua risoluzione. La comprensione delle sfide affrontate dagli utenti porta alla creazione di ipotesi che, proprio come accade nel metodo scientifico, vengono successivamente testate durante il processo di implementazione dell’AI per garantirne un costante allineamento con i valori di business ipotizzati, ma anche con esigenze e bisogni degli utenti.

Analizzare e mitigare i rischi dell’AI in anticipo: un caso pratico

Consideriamo per esempio un istituto finanziario che vuole aumentare il tasso di fidelizzazione dei propri clienti. Analizzando nel dettaglio l’esperienza dei clienti ricostruendone il customer journey, la banca può identificare le origini dei problemi che portano i clienti a cambiare istituto di credito. Attraverso l’empatia, mettendosi cioè nei panni dei clienti e analizzando le diverse interazioni che hanno con la banca, quest’ultima può scoprire, per esempio, che il tempo impiegato per rispondere alle domande dei clienti è la causa originaria che affligge la customer experience, con un conseguente impatto sul tasso di fidelizzazione, sul punteggio NPS e sul tempo speso dagli impiegati della banca nel cercare risposte alle richieste. Analizzare l’esperienza dal punto di vista del cliente rivela dunque come un problema apparentemente banale abbia in realtà ampie ripercussioni sui diversi KPI.

La pratica del design inteso come traduzione di intenti in esiti funge da catalizzatore di un approccio human-centered all’AI. Una volta identificati i problemi da risolvere, il design porta a tradurre questi problemi in soluzioni in cui l’AI può essere utilizzata per risolverli, assicurando l’adozione di queste soluzioni da parte degli utenti. Per ridurre il tempo di attesa, la banca potrebbe implementare diverse iniziative: dalla creazione di chatbot personalizzate sulle esigenze di ogni cliente, all’utilizzo dell’AI generativa per cercare risposte nei grandi corpora aziendali in soli pochi secondi. Ognuna di queste iniziative deve essere poi associata a una metrica di business e incorporata in un’ipotesi per testare, durante la fase di implementazione, se il sistema di AI genera effettivamente il valore ipotizzato. Per esempio, misurando un aumento del punteggio NPS, della retention o la riduzione del tempo speso dagli impiegati per trovare le informazioni. Le ipotesi ancorano l’AI ai bisogni delle persone e alle esigenze di business, assicurandone un controllo sui risultati e traducendo metriche statistiche che descrivono i modelli di AI, come ad esempio l’accuracy o la precision, nel reale impatto dei modelli su utenti e aziende.

Una volta definiti i progetti, bisogna analizzarli attraverso le dimensioni che costituiscono un uso responsabile dell’AI: trasparenza, solidità, salvaguardia della privacy e affidabilità. Tuttavia, prevedere quali potrebbero essere i rischi e le conseguenze dell’AI sulle persone è difficile. Oltre ai rischi connessi al machine learning discriminativo, quali i pregiudizi (bias), la privacy e la mancanza di trasparenza del funzionamento dei modelli cosiddetti black box, l’AI generativa sta aggiungendo nuove complessità. I risultati prodotti dai large language model possono infatti presentare errori di coerenza logica e scarsa affidabilità dei contenuti; possono propagare disinformazione e contribuire ad accrescere discriminazione a causa di pregiudizi latenti nei dati. Pensare in anticipo, durante la fase strategica, alle potenziali conseguenze che i modelli di AI potrebbero avere sulle persone, permette di prevedere, o almeno di mitigare, potenziali rischi. Progettando soluzioni incentrate sulle esigenze delle persone, i team di lavoro possono indirizzare l’intenzionalità dell’AI e intervenire sui risultati qualora essi non si allineino all’intento umano stabilito in fase di progettazione.

Per esempio, un istituto finanziario che vuole implementare un modello di credit risk score potrà, grazie al design, sviluppare pratiche che garantiscano la trasparenza del modello di AI ipotizzando diversi scenari, come ad esempio il caso in cui un cliente chieda spiegazioni riguardo al motivo per cui la sua domanda per un mutuo gli venga rifiutata. Perché il modello ha determinato un esito negativo per quel cliente? Qual è la ratio attraverso cui il modello opera? Potrebbe questo essere stato l’esito di bias latenti nei dati? Il design permette di connettere l’etica ai requisiti tecnici dando forma a domande umane e traducendole in soluzioni che garantiscono affidabilità all’AI.

Per fare ciò le aziende devono adottare un approccio multidisciplinare e coinvolgere nel processo di revisione delle iniziative AI tutti gli stakeholder: non solo in ambito analytics come i CDO e CIO, ma anche i responsabili compliance, privacy, risorse umane e così via. Le organizzazioni devono convergere e pensare strategicamente all’AI da diversi punti di vista, per promuovere una cultura etica e responsabile dell’AI e centralizzarne la governance.

Creare nuovi profili all’intersezione tra AI e discipline umanistiche

L’AI, specialmente nella forma generativa, sta trasformando la nostra esperienza e percezione del mondo attraverso i prodotti e i servizi di cui facciamo quotidianamente uso, e che generalmente vengono progettati e forniti dalle aziende. Queste ultime possono quindi contribuire a migliorare la relazione tra uomo e AI, incoraggiando la creazione di una nuova generazione di professionisti, che nel mio ultimo libro Umani Artificiali definisco data-savvy humanist.

Questi nuovi esperti sanno catturare le storie nascoste in dati e algoritmi così da renderli più vicini all’esperienza umana. Combinando la loro conoscenza tecnica al pensiero critico e all’arte del data storytelling, questi professionisti possono eliminare i rischi legati a possibili inique valutazioni dei modelli di AI o predizioni inaffidabili fatte da sistemi che non sono trasparenti. Sapendo guardare in profondità i modelli, i data-savvy humanist sapranno svolgere un ruolo di ponte tra gli stakeholder tecnici e quelli di business traducendo le metriche statistiche che descrivono gli algoritmi nelle conseguenze che questi hanno sul business, grazie alla capacità di trasformare dati in storie che dischiudono la complessità dell’AI.

L’intento principale per le aziende nell’uso dell’AI è quello di generare nuovo valore. È la capacità di creare e raccontare storie che, da sempre, rende gli eventi che viviamo parte della nostra natura umana. Lo stesso deve avvenire con l’AI. L’adozione dello storytelling, insieme a indagini critiche, competenze di analisi e sintesi, innesca un approccio antropocentrico all’AI, che vede nell’umano il perno e il fine ultimo di questa tecnologia. È solo adoperando questa logica alla progettazione degli algoritmi che si può supportare un’adozione più responsabile dell’AI.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 3