Connessioni Sintetiche

L’AI nel recruiting: meno costi ma più pregiudizi

Utilizzare il Machine learning nel recruiting abbatte i costi. Per questo, sempre più aziende ne fanno un ampio uso. Ma ci sono dei rischi e delle questioni etiche importanti da tenere in considerazione.

Pubblicato il 01 Apr 2022

Gioele Fierro

CEO e Founder Promezio Engineering

AI recruiting

Le macchine sono molto più efficienti degli esseri umani nell’analizzare, valutare e classificare dati che contengono degli schemi ricorrenti. Il recruiting è uno di quegli ambiti in cui da anni l’uso dell’intelligenza artificiale si è fatto sempre più massivo. Durante la valutazione dei candidati è prevista una prima fase di intelligence per la raccolta di dati aggiuntivi e una fase di comparazione e analisi delle informazioni a disposizione per poter giungere a una valutazione quanto più affidabile possibile.

Come viene utilizzata l’AI nel recruiting

Le grandi multinazionali come Microsoft, IKEA, PepsiCo, Burger King, Goldman Sachs, e tantissime altre, hanno già automatizzato una buona parte delle attività legata ai milioni di colloqui che effettuano ogni anno. Alcuni hanno preferito affidare questo compito di sviluppo in outsourcing mentre altri lo sviluppano in-house con un team di sviluppatori e data scientist dedicato al Machine learning. Secondo un’analisi di Jobscan, il 98% delle aziende Fortune 500 utilizza, almeno in una parte del processo di selezione, dei sistemi di AI.

Molte fasi del recruiting si prestano facilmente all’automatizzazione. Gli algoritmi di Machine learning possono, ad esempio, essere impiegati per scrivere e valutare gli annunci di lavoro, utilizzando termini e locuzioni che massimizzano il numero di candidati che sarà spinto a fare domanda d’impiego. L’AI, se appositamente addestrata, può anche scegliere le piattaforme di pubblicazione più adatte, valutando le caratteristiche dell’annuncio e lo storico delle risposte raccolte nel corso del tempo. Dopo la fase di pubblicazione, l’intelligenza artificiale può vagliare i curricula raccolti per classificarli e iniziare a scegliere i candidati che sono più adatti. Molte società si spingono ancora oltre, affidando agli automatismi anche il primo contatto con il candidato, attraverso chatbot o scambi di email che hanno l’obiettivo di schedulare un incontro faccia a faccia con il selezionatore. Tutto questo riducendo a zero l’intervento umano fino al momento del colloquio vero e proprio.

Questi automatismi si traducono in benefici economici tangibili. Si stima che gli investimenti nel settore del reclutamento automatizzato superino i 200 miliardi di dollari e questa cifra tenderà a crescere. Come riportato nel Global Artificial Intelligence Study di PwC, entro il 2030 l’AI contribuirà per 15,7 trilioni di dollari all’economia globale e una parte di questo contributo viene proprio dalle intelligenze artificiali dedicate al settore recruiting.

Questi enormi vantaggi, però, non solo l’unico aspetto da tenere in considerazione. Automatizzare i processi che portano all’assunzione di nuovo personale significa anche introdurre dei bias e delle questioni etiche complesse. Al momento non esiste una regolamentazione standard al riguardo, e come ha fatto notare il CEO di Microsoft in un’intervista del dicembre 2018, l’AI ha dimostrato pregiudizio diffuso verso alcune categorie più deboli, dando luogo a decisioni discriminanti che non sono tollerabili.

AI recruiting

AI e recruiting: la questione etica

Le decisioni e le valutazioni effettuate da un’AI in alcuni ambiti possono avere conseguenze molto gravi. La gestione totalmente automatizzata dei candidati per una posizione lavorativa è uno di questi.

Come sempre, in questi casi il problema principale sta nei dati utilizzati per l’addestramento delle reti neurali. Le intelligenze artificiali danno per buoni i dati sottostanti su cui basano le valutazioni, ma i grandi training set a disposizione dei data scientist sono spesso pieni di pregiudizi e incongruenze. Nella fase di “labeling“, ovvero quando si assegna un significato e una classe al dato grezzo, si introducono dei rumori nell’informazione che verranno poi registrati e riprodotti dall’AI che utilizza quei data set durante la fase di training.

Oltre a ciò, bisognerebbe valutare anche i parametri utilizzati per assegnare un punteggio (e quindi un valore) ai candidati. Ad esempio, alcune AI utilizzano la voce per dare una stima dell’affidabilità della persona in esame. Questo parametro, però, potrebbe facilmente essere discriminatorio, favorendo specifici accenti o particolari toni di voce. In questo caso, però, si sta giudicando un attributo fisiologico personale (e fondamentalmente immutabile), che magari non ha diretta attinenza con le caratteristiche del candidato ideale. Questo genere di preferenze dei sistemi automatici potrebbe essere eticamente inaccettabile.

Anche l’attività online dei potenziali candidati diventa una sorgente dati preziosa per le classificazioni dell’AI. Il social media behaviour rispecchia con particolare accuratezza i tratti caratteriali delle persone, la loro intelligenza, il loro livello d’istruzione e le loro attitudini private. Ma gli utenti non pubblicano online con lo scopo di essere giudicati da un sistema automatico: non c’è nessun consenso esplicito al riguardo. Il data mining sui social, quindi, solleva una serie di questioni etiche (e legali come vedremo dopo), quando viene utilizzato con lo scopo di classificare e “giudicare” i candidati per una posizione lavorativa aperta.

In questa filiera gestita interamente da intelligenze artificiali manca un sistema scientifico di convalida che, al termine dell’addestramento, permetta di valutare correttamente l’operato dell’AI nelle sue valutazioni.

AI recruiting

AI e inclusività

Gli Stati europei e americani hanno messo a punto molti strumenti per proteggere le fasce deboli dai possibili ostacoli dell’approccio al mondo del lavoro. Ad esempio, la US Equal Employment Opportunity Commission ha pubblicato una guida per rendere più facile stabilire se un individuo ha una disabilità che lo include in una categoria protetta.

La tecnologia di apprendimento automatico solleva diverse questioni irrisolte legate all’inclusività nel mondo del lavoro. In alcuni casi documentati, è stato dimostrato che le AI utilizzavano i dati raccolti online come strumenti per discriminare le categorie più deboli in fase di selezione.

Per superare questo ostacolo, sono in sviluppo nuovi modelli di reti neurali e nuovi approcci alla gestione dei dataset, che consentano di bilanciare i sistemi di valutazione. I dati utilizzati devono rappresentare in modo appropriato tutti i gruppi di persone e non devono contenere bias o pregiudizi nei confronti delle categorie protette.

Con l’intelligenza artificiale che scansiona il web in cerca di informazioni sul candidato, i recruiter hanno un accesso sempre maggiore alla vita privata e alle caratteristiche personali dei candidati. Questo significa che per un sistema di apprendimento automatico diventa semplice individuare alcuni tratti che potrebbero avere un impatto negativo nelle performance lavorative, senza valutare l’apporto che nel complesso quella persona può portare all’azienda. Questo tipo di decisioni aprono un dibattito che merita di essere portato avanti, per trovare alternative e soluzioni automatizzate ma inclusive.

Gli aspetti legali

I social media e le piattaforme online sono una preziosa fonte di informazioni per le AI utilizzate nel recruiting. Navigando e interagendo online viene generata una considerevole mole di dati che, se analizzata accuratamente, può rivelare dettagli privati e sensibili che, probabilmente, i candidati non condividerebbero mai in modo volontario con le aziende per cui vorrebbero lavorare.

Secondo gli esperti, il 90% dei dati utilizzati per questi scopi sono stati generati negli ultimi due anni. Con questa espansione improvvisa dell’uso dei big data cresce anche il rischio di un uso improprio, che va oltre gli scopi per i quali sono stati raccolti. Informazioni georeferenziate ed elementi multimediali possono essere incrociati per ottenere un quadro particolarmente accurato delle ideologie religiose e politiche di un candidato, così come della sua situazione familiare e delle sue abitudini private. Ma le AI hanno il diritto di estrarre queste informazioni?

La regolamentazione al riguardo è molto frammentaria. Infatti, se da un lato l’Unione Europea ha creato un testo unico per la protezione della privacy (GDPR), gli Stati Uniti, patria dei più grandi colossi che raccolgono dati personali, hanno un approccio eterogeneo, che cambia da stato a stato. A causa di queste discrepanze diventa sempre più difficile capire quali dati vengono raccolti, a che condizioni, e per quali scopi verranno utilizzati.

Nell’ambito specifico del recruiting, ad esempio, alcuni stati USA iniziano ad approvare delle leggi che limitano l’uso dei Big data da parte dei datori di lavoro nella fase di selezione dei candidati. Quindi, le grandi società iniziano a trovarsi a un bivio: hanno a disposizione una tecnologia che consente di minimizzare i costi per la scelta e l’assunzione di nuove risorse, ma potrebbero trovarsi ad accedere (in alcuni casi illegalmente) a informazioni private non raccolte per lo scopo prefissato.

Una soluzione regolamentare

Trovare una soluzione etica al problema non è per nulla banale. Da un punto di vista economico è impensabile limitare le potenzialità delle AI mettendole al bando per alcune applicazioni specifiche. D’altro canto, da un punto di vista umano, non si può permettere a una rete neurale di decidere della vita e del futuro delle persone se non si ha la certezza che le decisioni non saranno viziate da pregiudizi discriminanti. La regolamentazione può aiutare a sciogliere questo nodo etico, ma ci sono due ostacoli: l’eventuale frammentazione legislativa e la poca evoluzione degli strumenti per valutare scientificamente l’operato dell’intelligenza artificiale.

Nel paper “Ethics of Artificial Intelligence Recruitment Systems at the United States Secret Service“, l’autore Jim H. Ong propone un approccio molto interessante per la regolamentazione dei sistemi di apprendimento automatico per l’assunzione di personale.

In linea di massima, secondo Ong è possibile sviluppare un regolamento che si basa su cinque pilastri fondamentali:

  1. pari opportunità;
  2. protezione delle fasce deboli;
  3. autonomia umana sulle decisioni dell’AI;
  4. protezione della libertà e della sicurezza umana;
  5. testing e certificazioni.
Artificial Intelligence: The Robots Are Now Hiring | Moving Upstream

Artificial Intelligence: The Robots Are Now Hiring | Moving Upstream

Guarda questo video su YouTube

Video: Ora i robot assumono – WSJ

Conclusioni

L’uso dell’AI nel recruiting diventerà sempre più esteso e le reti neurali impareranno a classificare i candidati in modo sempre più accurato. Questo processo evolutivo va gestito con una regolamentazione uniforme, chiara e facilmente applicabile, per garantire ai candidati scelte eque e il rispetto della privacy, e alle aziende una riduzione dei costi a fronte di una decisione appropriata orientata alla crescita.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 3