NF24
Cerca
Close this search box.

Lavoro, AI per ridurre i pregiudizi ma serve il giusto mix con l’intelligenza umana

Le aziende si rivolgono sempre più a strumenti e analisi di intelligenza artificiale per ridurre i costi, migliorare l’efficienza, aumentare le prestazioni e ridurre al minimo i pregiudizi nelle assunzioni e in altre decisioni relative al lavoro. I risultati sono stati promettenti, ma persistono preoccupazioni sull’equità e l’obiettività.

Le grandi società stanno già utilizzando una qualche forma di intelligenza artificiale nel processo decisionale in materia di assunzioni. Un sondaggio del febbraio 2022 della Society of Human Resources Management ha rilevato che il 79% dei datori di lavoro utilizza l’AI e/o l’automazione per il reclutamento e l’assunzione.

La mossa dei datori di lavoro di sfruttare l’AI e la relativa analisi dei dati, nel tentativo di ridurre i pregiudizi inconsci nel processo decisionale relativo alle assunzioni non è una sorpresa. Negli ultimi anni, le aziende hanno dato sempre maggiore priorità alle iniziative di diversità, equità e inclusione. Dopo l’uccisione di George Floyd e le proteste che ne sono seguite in tutto il Paese, le aziende hanno promesso 200 mld di dollari per aumentare gli sforzi verso la giustizia razziale. I sondaggi mostrano che le aziende sono impegnate ad aumentare i budget, il personale e le metriche Dei (Diversity, Equity and Inclusion) e a investire di più nei gruppi di affinità. I controlli sull’equità salariale sono in aumento, insieme a una serie di nuove leggi a New York, in California e altrove che impongono trasparenza sulla retribuzione dei dipendenti.

L’AI si è dimostrata utile in una varietà di aree correlate all’assumere personale in modo più diversificato, tra cui l’anonimizzazione di curriculum e intervistati, la realizzazione di interviste strutturate e l’utilizzo di giochi di neuroscienze per identificare tratti, abilità e comportamenti. Alcune aziende  fanno interviste video ai candidati e utilizzano l’AI per analizzare fattori quali espressioni facciali, contatto visivo e scelta delle parole. Questo uso dell’AI può aiutare a evitare decisioni che trattano in modo diverso candidati e dipendenti che si trovano in posizioni simili sulla base di pregiudizi radicati o inconsci o dei capricci dei singoli decision-maker.

Uno studio condotto a Yale ha dimostrato che nel valutare i candidati per il ruolo di capo della polizia, gli esaminatori umani hanno giustificato la scelta di uomini senza titoli universitari rispetto a donne con titoli universitari perché “l’intelligenza di strada” era il criterio più importante. Tuttavia, quando i nomi sulle candidature sono stati invertiti, gli esaminatori hanno scelto uomini con titoli universitari piuttosto che donne senza titoli universitari, sostenendo che i titoli erano i criteri più importanti. Se i criteri fossero stati fissati in anticipo, i pregiudizi inconsci nei confronti delle donne avrebbero potuto essere mitigati perché gli esaminatori non sarebbero stati in grado di giustificare le loro decisioni a posteriori. A differenza degli umani, gli strumenti di AI non si discosteranno dai criteri preselezionati per razionalizzare una decisione non obiettiva.

Come ci riesce? In molti casi, l’AI può ridurre l’interpretazione soggettiva dei dati da parte degli esseri umani perché gli algoritmi di machine-learning sono addestrati a considerare solo le variabili che migliorano l’accuratezza predittiva, ha scoperto McKinsey. Gli algoritmi possono prendere in considerazione varie caratteristiche di un curriculum, tra cui il nome di un candidato, l’esperienza precedente, l’istruzione e gli hobby, ed essere addestrati a considerare solo quelle caratteristiche o tratti che prevedono un risultato desiderato, ad esempio se un candidato si comporterà bene una volta sul posto di lavoro. I risultati sono impressionanti. In un articolo di prossima pubblicazione, Bo Cowgill della Columbia Business School riporterà i risultati del suo studio sulle prestazioni di un algoritmo per la selezione di ingegneri del software. Ha scoperto che un candidato selezionato dalla macchina (e non da un essere umano) ha il 14% in più una volta prorogata.

Gli algoritmi non vengono utilizzati solo per ridurre i pregiudizi nelle assunzioni. Sono anche utili per monitorare la produttività e le prestazioni dei dipendenti e per prendere decisioni in merito a promozioni e aumenti di stipendio. Ad esempio, le società di consegna pacchi utilizzano l’AI per controllare e segnalare la sicurezza e la produttività degli autisti monitorando il loro movimento e quando inseriscono la retromarcia. Altre società possono utilizzare l’AI per tenere traccia dei tempi di accesso dei dipendenti e controllare se i dipendenti prestano attenzione agli schermi dei loro computer utilizzando webcam e software di tracciamento oculare.

L’AI è stata persino utile nella scelta dei candidati per i consigli di amministrazione. Uno studio presso il Fisher College of Business, che ha confrontato l’uso del machine learning nella selezione dei dirigenti con i consigli di amministrazione selezionati dall’uomo, ha rilevato che i dirigenti scelti dall’uomo avevano maggiori probabilità di essere maschi, avevano network più ampi e avevano molti incarichi di direzione passati e attuali. Al contrario, l’algoritmo della macchina ha rilevato che i dirigenti che non erano amici del management, avevano reti più piccole e avevano background diversi rispetto a quelli del management, ma avevano maggiori probabilità di essere dirigenti efficaci, anche attraverso un monitoraggio del management più rigoroso e offrendo opinioni potenzialmente più utili sulla policy.

L’AI non è priva di difetti. Nel 2018, Amazon ha abbandonato un pratica di assunzione basata sull’AI quando ha realizzato che questa ha in realtà perpetuato il pregiudizio, in gran parte come risultato del campione di assunzioni e dei dati dei curriculum che la società ha fornito all’algoritmo, che erano fortemente sbilanciati a favore degli uomini. La maggior parte dei curriculum nei dati di “addestramento” apparteneva agli uomini, riflettendo il numero sproporzionato di uomini nel settore tecnologico, quindi, naturalmente, il tool di AI ha insegnato a se stesso che gli uomini erano candidati preferibili. Lo strumento ha quindi assegnato un punteggio inferiore ai curriculum delle persone che hanno frequentato i college “femminili” o che hanno giocato nella squadra di scacchi “femminile”. Naturalmente, il problema non era nell’AI stessa, ma nei dati immessi dall’azienda.

Riconoscendo i punti deboli associati all’IA, alcune aziende hanno collaborato per sviluppare delle policy che ne mitigassero i potenziali effetti discriminatori. Data & Trust Alliance ha sviluppato “Algorithmic Bias Safeguards for Workforce” con l’obiettivo di rilevare, mitigare e monitorare i pregiudizi dell’algoritmo nelle decisioni sulla forza lavoro.

Due Stati, il Maryland e l’Illinois, hanno emanato statuti che regolano l’uso dell’AI. La legge dell’Illinois richiede ai datori di lavoro di informare i candidati quando l’AI sarà utilizzata e ottenere il consenso del candidato. La legislazione proposta in un terzo Stato, la California, prende spunto dal regolamento generale sulla protezione dei dati (Gdpr) dell’Unione europea imponendo la responsabilità ai fornitori di tool di AI. 

Anche i decisori politici e le autorità di regolamentazione federali hanno un ruolo importante da svolgere nel garantire che l’AI sia utilizzata con equità nell’assunzione e nel mantenimento dei lavoratori qualificati. Saranno necessari parametri e supervisione forti per controllare anche gli algoritmi più intelligenti.

Storicamente, tutte le tecnologie attraversano una fase di adattamento in cui le conosciamo, ne riconosciamo l’utilità e creiamo metodi per difenderci dai loro effetti deleteri, involontari ma inevitabili. Alla fine, è improbabile che ci sarà un approccio unico per tutti nell’utilizzo dell’AI in modo efficace e responsabile. Impareremo cammin facendo, affidando molti compiti umani alle macchine anche se chiederemo alla nostra umanità di monitorarle. Senza dubbio, le decisioni relative alle assunzioni beneficeranno del giusto mix di AI e intelligenza umana.

*Gary D. Friedman è un partner della sede di New York dello studio legale Weil, Gotshal e Manges, che si occupa di controversie sul lavoro. Avvocato di primo grado, rappresenta i datori di lavoro in un’ampia gamma di controversie. Questo articolo è tratto dalla testimonianza che il signor Friedman ha rilasciato alla Commissione per le pari opportunità di lavoro il 31 gennaio 2022.

Le opinioni espresse nei commenti di Fortune.com sono esclusivamente le opinioni dei loro autori e non riflettono necessariamente le opinioni e le convinzioni di Fortune.

L’articolo originale è disponibile su Fortune.com

ABBIAMO UN'OFFERTA PER TE

€2 per 1 mese di Fortune

Oltre 100 articoli in anteprima di business ed economia ogni mese

Approfittane ora per ottenere in esclusiva:

Fortune è un marchio Fortune Media IP Limited usato sotto licenza.