2016年9月29日 星期四

向機器人求個職



向機器人求個職
奧康納:機器人並不只搶走人類的工作,它們也開始招聘人類員工了,因為它們可以快速篩選應聘者,但這很危險。
更新於2016921 05:56 英國《金融時報》 薩拉奧康納
機器人並不只搶走人類的工作,它們也開始向人類發放工作崗位了。參加招聘行業的任何一場活動,你都會發現空氣中彌漫著像機器學習大數據預測分析這樣的字眼。
在招聘中使用這些工具的理由很簡單。機器人招聘者可以快速篩選數以千計的應聘者,效率遠高於人類。它們還能做到更加公平。因為它們不會像人類那樣帶著有意或無意的偏見,它們會招聘到一批更多元化和擇優錄用的員工。
這是個很誘人的想法,但也是危險的。算法的中立並非是其固有,而是因為它們看到的世界只是01
首先,任何機器學習的算法,並不會比它所學習的訓練數據更好。以學術研究者科林·(Colin Lee)今年向媒體發布的博士論文為例,他分析了44.1769萬份成功和不成功的求職申請,建立了一個準確度達70%80%的模型,可預測哪些應聘者會被邀請參加面試。該新聞稿稱,這一算法潛在可用作工具,用於在篩選大量簡歷的過程中避免人為錯誤和無意識偏見
但這樣的模型會吸收最初招聘決定中的人為職場偏見。例如,上述研究發現,年齡因素可以在最大程度上預測該應聘者是否會被邀請面試,最年輕和最年長的應聘者最不可能成功。你可能覺得這挺公平,因為沒有經驗的年輕人乾不好,但拒絕年長應聘者的常見做法似乎值得調查,而不是被編入程序和得以延續。
科林承認這些問題的存在,並建議最好從簡歷中剔除一些屬性(例如:性別、年齡和種族)再加以使用。即使那樣,算法仍有可能帶有歧視。在今年發表的一篇論文中,索倫·巴洛卡斯(Solon Barocas)和安德魯·謝爾博斯特(Andrew Selbst)這兩位學者使用了一個案例,即雇主希望挑選最有可能長期留在工作崗位上的雇員。如果歷史數據顯示,女性雇員在工作崗位上停留的時間大大少於男性雇員(可能因為當她們有了孩子便會離職),算法就有可能利用那些性別指向明確的屬性,得出對女性不利的結果。
應聘者住址與辦公室之間的距離如何?這也可能是預測該雇員出勤率和在公司服務年限的不錯的預測因素;但它可能也會在無意間歧視某些群體,因為不同的住宅社區有不同的種族和年齡特徵。
這些現象提出了一個棘手問題:在理性和非有意的情況下,歧視是否錯誤?這是一個模糊的法律領域。在美國,根據差別影響(disparate impact)原則,貌似中立的雇傭實踐若超出比例地傷害了受保護階層,即為不合法,即便雇主並非有意歧視。但雇主若能證明該做法有很強的商業理由,就能為自己成功辯護。如果使用算法的意圖僅僅是為相關職位招募最佳人選,那可能是個足夠好的辯護理由。
話雖如此,那些希望擁有更多元化的員工隊伍的雇主,顯然不能想當然地認為只需把招聘交給電腦去做。假如這正是他們想要的,那他們也得把數據運用得更富想象力一些。
比如說,與其將他們自己的公司文化設為既定條件,進而尋找統計學上最有可能在該文化中成功的人選,不如找到相關數據顯示,一支更為多元化的員工隊伍在哪些情況下會成功。
如果機器學習唯一學到的只是你的過去,那麽它將無法推動你的員工隊伍走向未來。
譯者/艾卜


沒有留言:

張貼留言

發表意見者,請留稱呼。用匿名不留稱呼者,一律自動刪除。