L’IA può salvarci dal pregiudizio nella diversità della forza lavoro non binaria del futuro?

I pregiudizi assunti hanno frenato le candidature di minoranze e donne, specialmente nel settore tecnologico, dove uomini bianchi e asiatici occupano la maggior parte dei posti di lavoro. Di conseguenza, le startup e le grandi aziende hanno tentato di sfruttare tecnologie emergenti come l’intelligenza artificiale per migliorare i processi di reclutamento. Ma è probabile che tali sforzi diventino ancora più difficili dal momento che più candidati identificano come più di un’etnia o come nessun genere.

Al convegno Forbes CIO di Half Moon Bay, in California, lunedì, Laura Gomez, CEO di $ 10 milioni di startup di software HR per diversità, Atipica, ha dichiarato che l’algoritmo della sua azienda “ci consente di comprendere dati di curriculum aggregati, Censimento, Dipartimento del lavoro e occupazione paritaria Dati della Commissione opportunità (EEOC) per prevedere chi è in forza lavoro. “

“Ci sono molte lacune nei dati riguardo la diversità e l’inclusione”, ha detto Gomez. “Deve essere auto-segnalazione a molte persone che non amano il self-report. Stiamo cercando di colmare queste lacune e assicurarci che i leader capiscano dove sono queste lacune “.

Gli sforzi per utilizzare l’intelligenza artificiale nel reclutamento hanno colpito alcuni punti critici: l’anno scorso, un progetto interno di Amazon per costruire uno strumento per selezionare i migliori candidati utilizzando l’intelligenza artificiale è stato archiviato dopo che i dirigenti hanno capito che il programma stava penalizzando il curriculum femminile . La ragione, secondo Reuters : Il sistema di intelligenza artificiale aveva insegnato a se stesso, sulla base dei modelli di assunzione del passato Amazon, che i candidati di maggior successo erano maschi.

LinkedIn, con 600 milioni di utenti nel suo sistema, ha capito che il suo algoritmo di reclutamento, che supera i potenziali candidati per i reclutatori, era a rischio di aggravare i pregiudizi di assunzione. L’anno scorso ha lanciato i risultati del rappresentante, una modifica al suo algoritmo che assicura che l’intelligenza artificiale non introduca pregiudizi, come mostrare più candidati maschi nei risultati di ricerca.

POTREBBE PIACERTI ANCHE
“Sarebbe possibile creare sistemi distorti. Volevamo essere sicuri che quel pregiudizio non fosse fuori controllo “, ha dichiarato John Jersin, vicepresidente del prodotto, delle soluzioni per i talenti e delle carriere di LinkedIn, sul software dell’azienda. “Possiamo usare le tecniche per influenzare le persone per ridurre i pregiudizi nei risultati.”

Jersin afferma che gli sforzi di LinkedIn sulla diversità “sono iniziati con il genere perché è il più semplice su cui ottenere un set di dati significativo. È una spaccatura 50/50 circa. “

La maggior parte degli utenti di LinkedIn può inserirsi in binari di genere, ma per la forza lavoro in arrivo questo potrebbe non essere il caso, secondo Nicole Sanchez, fondatrice e managing partner di Vaya Consulting, che guida le aziende di Fortune 500 nella formazione sulla diversità e l’inclusione.

“Il cinquanta per cento di coloro che si identificano come Gen-Z che vivono sulle coste hanno pensato al loro genere e si sono identificati da qualche parte su uno spettro di genere non binario. Per quanto vogliamo guidare per qualcosa di semplice come il genere, per il prossimo gruppo di lavoratori, il genere è decisamente significativo “, ha detto Sanchez.

Il reclutamento per la forza lavoro esistente piuttosto che quella che sta arrivando ha indotto i professionisti dell’assunzione a rafforzare i pregiudizi, perpetuando un sistema imperfetto.

Anche se il 21% dei laureati in informatica è Black o Latinx, ma rappresentano solo il 10% degli impiegati tecnici nella forza lavoro tecnologica, secondo uno studio del 2018 del Kapor Center .

“Quello che sta succedendo è che la gente usa LinkedIn, guarda un’immagine e indovina”, ha detto Sanchez. “Ci sono delle leggi che dicono che non puoi chiedere a qualcuno la loro razza e genere mentre sono in arrivo, ma il proxy che stiamo usando solidifica il nostro vecchio sistema rotto di guardarci l’un l’altro e assumendo sempre più mi sbaglierò Gen-Z entra nel mondo del lavoro. “

Per quanto gli umani abbiano espresso il proprio pregiudizio sui modelli di intelligenza artificiale e di apprendimento automatico, l’ennesima sfida è che questi sistemi sono validi solo come i dati su cui si basano. Sanchez non è convinto che la tecnologia possa risolvere completamente i pregiudizi di assunzione.

“Nel prossimo decennio, saremo una contea con una maggioranza di persone di colore, ei nostri sistemi non sono pronti per questo”, ha detto Sanchez. “Per quanto vogliamo inchiodare i dati, perché siamo basati su soluzioni basate sui dati, i nostri dati sono sbagliati. Alcuni dei lavori che dobbiamo fare devono essere seguiti dagli umani “.

Di ihal