通过系统的机器训练,让 AI 代替 HR 筛选简历,无疑能帮助公司节省大量的劳动力,并且更有效地挑选出合适的人才。万万没想到的是,亚马逊的 AI 却戴上了有色眼镜。
类似人类的情感倾向出现在了 AI 上,本身就有悖于人类训练 AI 的目的。我们希望人工智能是中立、结果导向的,甚至在理性的前提下,会带有一丝无情。
好在亚马逊自己也发现了这个问题,去年已将负责该项目的团队解散。
人工智能“性别歧视”的起因
在亚马逊 AI 招聘歧视事件的最后,大家把问题归咎于人工智能训练样本上。因为在具体的训练方法上,亚马逊针对性开发了 500 个特定职位的模型,对过去 10 年的简历中的 5 万个关键词进行识别,最后进行重要程度的优先级排序。
因此简单来说,AI 的工作还是抓取关键词。然而在这些简历中,大部分求职者为男性,他们使用诸如“执行”这样的关键词更加频繁,而女性相关的数据太少,因此 AI 会误以为没有这类关键词的女性简历不那么重要。
类似的事情同样发生在了 Google 身上。早在 2017 年,Quartz 报道了一篇题为《The reason why most of the images that show up when you search for “doctor” are white men》的文章,如果你在 Google image 上搜索”doctor“,获得的结果中大部分都是白人男性。