亚马逊栽了个大跟头。
长期以来,这家电商巨头一直应用AI提升效率,但万万没想到的是,原本应该公平公正、没有意识的AI,也会“作死”了……
好的不学,非要学别人重男轻女、歧视女性。
而这个内部秘密,刚刚被路透社曝光于天下。
事件一出,掀起了轩然大波。
国外的网友们纷纷开始吐槽,讲述自己曾经经历过的不公平事件,以及奇葩的计算机系统等等。还有一堆网友开始分析问题原因。
亚马逊也喜提了一波嘲讽:
“可以说这个人工智能很成功,因为它模仿了亚马逊当前的招聘状态。”
一个戴有色眼镜的AI
筛简历是很多HR的核心工作之一,对于亚马逊这样的大公司来讲,不仅岗位多,投递同一个岗位的求职者可能也非常多,于是,无穷无尽的浏览简历就成了HR的日常。
而且,同一个岗位收到的简历里,总有一些达不到用人标准的、“文不对题”的简历,即使是适合的人,也会分出三六九等,有人很优秀,也有人比优秀的人更优秀。从求职者之中挑选最合适的人,也是让HR们头疼的一件事。
那能不能找一个AI,来自动帮HR们筛简历呢?
于是,作为一家电商公司,亚马逊把日常的用户给商品标星打分的功能,挪到了AI给求职者简历打分上。这样,HR们就可以美滋滋的说:“我,只看五星简历,AI快给我挑出来。”
2014年,这个项目就开始了,亚马逊的机器学习团队开始开发筛简历AI。
但是到2015年,亚马逊发现:糟了,这个AI不学好,学会了人类性别歧视那一套。
如果把投递“软件开发工程师”或者其他技术岗位的求职者简历扔给这个AI来打分,它就会给包含“女”这个关键词的简历打低星,而“男”则不受影响。
另外,如果简历上写着求职者毕业于某两所女子大学,这个AI也会给求职者降星。路透社的线人并没有说是哪两所学校。
人类能不能找到一份工作,竟然要看“AI的脸色”,作为女性求职者,凭什么让AI对我说三道四?在美国,这种涉嫌歧视的事情稍不注意就会招来一大波反对的声音,引发大负面。亚马逊赶紧修改这个AI,让它对“男”、“女”这些词保持中立。
但是,改是改不完的,今天教AI不要歧视女性,明天它会不会歧视黑人?后天它会不会歧视LGBT人群?大后天它会不会开地图炮?这些都说不准。
后来,亚马逊放弃了这个项目。
都是你们人类的锅!
一个好好的AI,怎么成长过程中就自动学会了性别歧视这种坏毛病?
这得看它是“吃”什么长大的,也就是用什么数据来训练的AI。
很不幸,锅还是得亚马逊自己来背,因为这个AI“吃”的都是亚马逊自家的招聘数据,来自亚马逊过去10年来收到的简历,依据这些简历,亚马逊的AI学会了挑出男性求职者。
男性本身就多?
这些数据有什么问题呢?路透社分析,可能是因为科技行业中的大部分技术岗位都是男性在做。
路透社整理了自2017年起这些公司公布的数据,从中可以看出,像谷歌、苹果、微软、Facebook这些公司,整体上男性占了2/3,而单独挑出技术岗位,男性比例则达到了将近4/5。
AI学会了人类的歧视
不过,数据量大小并不意味着少数数据就会被歧视,相信亚马逊的AI也不会傻到只选取简历数据中大多数人的共同特点,那样岂不是错过了少数天才?
在Hacker News和Reddit的评论区,一些更懂技术的网友把矛头对准了数据体现的亚马逊在招聘中现存的性别歧视问题。
从技术上讲,可以说这个人工智能是成功的,因为它模仿了亚马逊当前的招聘状态。
并给出了背后的逻辑。
机器学习过程不会引入任何偏差,但训练数据中存在的任何偏差都将在算法中忠实地展现出来。
也就是说,AI自己本身是一个天真无邪的“幼儿”,它不会自主的学会偏见和歧视,但如果给“幼儿”上课的“老师”亚马逊的招聘数据自身带了偏见,那么这些偏见就会“言传身教”给无辜的AI。
共2页 [1] [2] 下一页
短视频平台的未来 还要靠内容质量和AI算法
亚马逊AI在简历筛选中歧视女性?AI犯错不是第一次了
央视曝光科大讯飞以“AI“为名拿地盖别墅
中国迅速成为全球AI工厂 港媒:AI革命离不开中国人力
AI寒冬将至?行业大咖呼吁重启AI再出发
搜索更多: AI