當(dāng)然還有很大的改進(jìn)空間。員工推薦,這一過(guò)程往往會(huì)讓未被充分代表的群體離開(kāi),但仍占公司招聘的大部分。研究發(fā)現(xiàn),招聘人員和招聘經(jīng)理也會(huì)對(duì)這一過(guò)程產(chǎn)生自己的偏見(jiàn),他們通常會(huì)選擇“聽(tīng)起來(lái)不錯(cuò)”的名字和教育背景。
在整個(gè)管道過(guò)程中,公司缺乏種族和性別多樣性,在公司高層中,代表人數(shù)不足的人正在減少。在財(cái)富500強(qiáng)企業(yè)中,只有不到5%的首席執(zhí)行官是女性——而且只有三位黑人ceo。財(cái)富500強(qiáng)公司的種族多元化幾乎同樣令人沮喪,2016年新任命的五名董事會(huì)成員中,有四人是白人。
“識(shí)別高潛力的候選人是非常主觀的,”CorpU的首席執(zhí)行官Alan Todd說(shuō),他是一個(gè)領(lǐng)導(dǎo)發(fā)展的技術(shù)平臺(tái)。“人們根據(jù)無(wú)意識(shí)的偏見(jiàn)選擇他們喜歡的人。”
人工智能的擁護(hù)者辯稱,這項(xiàng)技術(shù)可以消除其中的一些偏見(jiàn)。Entelo和Stella IO等公司沒(méi)有依靠人們的感情來(lái)做出招聘決定,而是使用機(jī)器學(xué)習(xí)來(lái)檢測(cè)某些工作所需的技能。然后,人工智能將匹配那些擁有這些技能的候選人。這些公司聲稱不僅要找到更好的候選人,而且還要找出那些以前在傳統(tǒng)過(guò)程中沒(méi)有被承認(rèn)的人。
例如,Stella IO的算法只根據(jù)技能對(duì)候選人進(jìn)行評(píng)估,例如,創(chuàng)始人Rich Joffe說(shuō)。“這個(gè)算法只允許根據(jù)我們告訴它的數(shù)據(jù)進(jìn)行匹配。它只被允許看技能,它只被允許看行業(yè),它只被允許看一層公司。”他說(shuō),這限制了偏見(jiàn)。
Entelo今天發(fā)布了無(wú)偏見(jiàn)的采購(gòu)模式,這是一種進(jìn)一步匿名招聘的工具。該軟件允許招聘人員隱藏姓名、照片、學(xué)校、就業(yè)差距和年齡標(biāo)記,以及替換性別特定的聲明,以減少各種形式的歧視。
人工智能也被用于幫助培養(yǎng)內(nèi)部人才。CorpU與密歇根大學(xué)羅斯商學(xué)院建立了合作關(guān)系,建立了一個(gè)20周的在線課程,利
用機(jī)器學(xué)習(xí)來(lái)識(shí)別高潛力的員工。托德說(shuō),那些排名最高的人通常不是那些已經(jīng)在晉升的人,而且經(jīng)常表現(xiàn)出在招聘過(guò)程中被忽視的內(nèi)向性格。
“人類的決策非常糟糕,”康奈爾大學(xué)信息科學(xué)系助理教授Solon Borocas說(shuō),他研究機(jī)器學(xué)習(xí)的公平性。但他警告說(shuō),我們也不應(yīng)該高估技術(shù)的中立性。
Borocas的研究發(fā)現(xiàn),在招聘過(guò)程中,機(jī)器學(xué)習(xí)很像它在面部識(shí)別中的應(yīng)用,會(huì)導(dǎo)致無(wú)意識(shí)的歧視。算法可以攜帶那些編程的人的隱式偏見(jiàn)?;蛘撸麄兛赡軆A向于偏愛(ài)某些特定的品質(zhì)和技能,而這些品質(zhì)和技能在給定的數(shù)據(jù)集中體現(xiàn)出來(lái)。Borocas解釋說(shuō):“如果你用來(lái)訓(xùn)練系統(tǒng)的例子不能包括某些類型的人,那么你開(kāi)發(fā)的模型可能真的很難評(píng)估這些人。”
并不是所有的算法都是平等的,人工智能社區(qū)也存在分歧,哪些算法有可能使招聘過(guò)程更加公平。
一種機(jī)器學(xué)習(xí)依賴于程序員來(lái)決定在看候選人時(shí)應(yīng)該優(yōu)先考慮哪些品質(zhì)。這些“受監(jiān)督”的算法可以用來(lái)掃描那些去常春藤盟校的人,或者那些表現(xiàn)出某些品質(zhì)的人,比如外向的人。
“無(wú)人監(jiān)督”的算法決定了他們自己的哪些數(shù)據(jù)是優(yōu)先排序的。這臺(tái)機(jī)器根據(jù)現(xiàn)有員工的素質(zhì)和技能做出自己的推斷,以確定未來(lái)員工所需要的技能。如果這個(gè)樣本只包含一個(gè)同質(zhì)的群體,它就不會(huì)學(xué)習(xí)如何雇傭不同類型的個(gè)體——即使他們?cè)诠ぷ髦斜憩F(xiàn)出色。
公司可以采取措施來(lái)減輕這些形式的偏見(jiàn)。人工智能招聘初創(chuàng)公司Pymetrics讓程序員對(duì)其算法進(jìn)行審計(jì),以確定它是否對(duì)任何性別或種族群體都有偏好。例如,大量考慮郵政編碼與種族密切相關(guān)的軟件,可能會(huì)對(duì)黑人候選人產(chǎn)生偏見(jiàn)。審計(jì)可以捕獲這些偏見(jiàn),并允許程序員糾正它們。
Stella IO還讓人類監(jiān)控人工智能的質(zhì)量。“雖然沒(méi)有任何算法能保證萬(wàn)無(wú)一失,但我相信它比人類好得多,”創(chuàng)始人Joffe說(shuō)。
波拉卡斯同意,在人工智能的幫助下,雇傭員工比現(xiàn)狀要好。然而,最負(fù)責(zé)任的公司承認(rèn),他們不能完全消除偏見(jiàn),并迎頭解決。“我們不應(yīng)該把它看作是一顆銀彈。”他警告說(shuō)。