或者说,AI是从人类社会中,学会了人类的偏见和歧视。
我们不想让AI歧视女性,但这绝非易事,因为AI无法忽视它所学习的人类社会对女性的歧视。这绝对是一个难题,不仅仅是技术上的难题,更是哲学层面上的难题。
AI在无意中学会人类之恶,这并不是第一次发生。
此前的微软的聊天机器人Tay,就曾经学会了人类的那些极端言论,在Twitter上咒骂女权主义者和犹太人。
而招聘AI这一次,人类的错误让AI重蹈覆辙了。
“很显然,我们没有吸取微软Tay的任何教训。”有网友评论道。
这个AI靠抓关键词?
不只是训练数据的问题。路透社的报道中还披露了亚马逊训练AI的细节。
· 开发了500个针对特定工作职能及岗位的模型。
· 训练每个模型去识别过去求职者简历中出现的近5万个关键词。
· 模型算法按照重要程度给求职者的技能进行优先级排序。
所以这个AI,很大一部分工作是在抓关键词嘛。比如它偏好的“执行”、“抓取”这种词,在男性求职者的简历中出现次数更多,也从另一个维度造成了女性候选人的劣势。
因此,这也是导致性别歧视的一个原因。甚至,还可能会给人“钻空子”的机会。
Reddit上的一名网友评论称:
“亚马逊阅读简历的AI从一开始就注定了要失败,因为任何人都可以去学习怎样写好一份简历。让我写一份医生的简历,我打赌我会比真医生写的要好。”
想一想那些“简历写作技巧”的培训,是不是都告诉你HR看一份简历只要二三十秒,简历里有某些关键词、重要数据就能吸引HR的注意?
因此,这种抓关键词的机制,就得以让很多人通过强行往简历里塞关键词,而获得更高的星级,造成了另一种不公平。
AI招聘,道阻且长
根据招聘公司CareerBuilder 2017年在美国进行的一项调查,55%的人力资源经理表示,将会在未来五年中采用AI,并将其作为日常工作中的工具。
一些“激进”或者说有大量招聘需求的公司,已经将AI应用到招聘环节中去了。比如希尔顿酒店,就在招聘的时候,会先利用聊天机器人面试,并为求职者匹配合适的岗位,之后再进入下一轮面试。
在接受采访时,希尔顿招聘副主管Sarah Smart表示,“人工智能会分析求职者的语调、眼神和回答的表情,来判断求职者是否对工作富有热情,从而来帮助我们筛选求职者。”
具体体验怎么样呢?体验过聊天机器人面试官的Japser Rey说,“和聊天机器人对话时,我不用担心自己会分神,而且机器人不会戴有色眼镜看人,相对更公平公正一些。”
相对来说,大部分公司并没有将AI放到具体的招聘决策环节之中,只是作为一个辅助工具。
百度:将AI应用到了招聘上,在今年的校园招聘中,采用AI分析简历、推荐岗位。
高盛:开发了简历分析工具,会将求职者与“最适合”的部门进行匹配。
LinkedIn:根据网站上发布的岗位消息,利用算法为雇主提供求职者的排名。
尽管人们对AI招聘并不十分待见,但却无法阻挡这样一个趋势:AI终将左右你找工作这件事。
它只会迟到,但不会缺席。
作者: 量子位-乾明 郭一璞 来源: 新芽
共2页 上一页 [1] [2]
短视频平台的未来 还要靠内容质量和AI算法
亚马逊AI在简历筛选中歧视女性?AI犯错不是第一次了
央视曝光科大讯飞以“AI“为名拿地盖别墅
中国迅速成为全球AI工厂 港媒:AI革命离不开中国人力
AI寒冬将至?行业大咖呼吁重启AI再出发
搜索更多: AI