ITPub博客

首页 > 人工智能 > 机器学习 > 亚马逊AI被曝性别歧视

亚马逊AI被曝性别歧视

机器学习 作者:misuland 时间:2018-10-12 10:46:17 0 删除 编辑

米鼠网报道:亚马逊公司一直以AI物流与电商为人津津乐道,市值也紧跟苹果破万亿,杰夫·贝佐斯也靠亚马逊坐上了世界首富的位置。这是样的公司却被自己家的AI所“出卖”被爆出AI重男轻女,而这个秘密刚刚被路透社曝光于天下。

timg.jpg

国外的网友们纷纷开始吐槽,讲述自己曾经经历过的不公平事件,以及奇葩的计算机系统等等。还有一堆网友开始分析问题原因。

亚马逊也喜提了一波嘲讽:

“可以说这个人工智能很成功,因为它模仿了亚马逊当前的招聘状态。”

都是你们人类的锅!

一个好好的AI,怎么成长过程中就自动学会了性别歧视这种坏毛病?

这得看它是“吃”什么长大的,也就是用什么数据来训练的AI。

很不幸,锅还是得亚马逊自己来背,因为这个AI“吃”的都是亚马逊自家的招聘数据,来自亚马逊过去10年来收到的简历,依据这些简历,亚马逊的AI学会了挑出男性求职者。

男性本身就多?

这些数据有什么问题呢?路透社分析,可能是因为科技行业中的大部分技术岗位都是男性在做。


图片1.png


△ 美国知名科技公司全球员工性别比

图片2.png


△ 美国知名科技公司技术岗员工性别比

路透社整理了自2017年起这些公司公布的数据,从中可以看出,像谷歌、苹果、微软、Facebook这些公司,整体上男性占了2/3,而单独挑出技术岗位,男性比例则达到了将近4/5。

AI学会了人类的歧视

不过,数据量大小并不意味着少数数据就会被歧视,相信亚马逊的AI也不会傻到只选取简历数据中大多数人的共同特点,那样岂不是错过了少数天才?

在Hacker News和Reddit的评论区,一些更懂技术的网友把矛头对准了数据体现的亚马逊在招聘中现存的性别歧视问题。

这次AI无意识的“恶行”也不是第一次发生,微软去年推出的Twitter机器人因不当言论而紧急下线,微软最初设定 Tay 是一个年龄19岁的少女,具有一些幽默机制,适合和18至24岁的用户聊天。可万万没有想到的是,Tay在 Twitter 上线没几天就“误入歧途”甚至出现偏激言论,而这正是源自一些不良网民利用人工智能系统的漏洞而进行的一场恶搞。

3.jpg

微软表示,在设计Tay的时候就有考虑到可能会被网友影响的问题,因此还特意为Tay设置了反制功能,当用户的用语出现粗俗字眼时,Tay会强制反制避免不健康话题的延续。

而此次这个学习漏洞在于「repeatafter me」机制,只要对 Tay 提到这句话,Tay 就会将对方的话进行重复,因此不管是何种偏激的种族主义语言,都会被 Tay 进行重复,而这个状况在滚雪球一样大量出现在在 Tay 的 Twitter 上,由于偏激言论不断出现种族歧视,性别歧视等最终导致微软关闭了 Tay 。

最为关键的一点,解决AI歧视的本质问题,也就是人的改变。只有改变样本数据在现实社会中的弊端作为,才能从源头解决算法的歧视问题。而机器,有时候也需要学会思考如何去摆脱人类对它们造成的错误影响。

剑桥大学未来研究所教授鲁恩•奈如普(Rune Nyrup)曾经说过“没有事实上的技术中立。对机器来说,中立的就是占统治地位的。”而且,我们现在的人工智能,还远远没到达到理解真善美、假恶丑的“抽象”地步。这里小编给大家介绍一个靠谱的软件外包平台——米鼠网,米鼠网-国内唯一的复杂性项目在线交易平台,其服务的种类包括了政府采购、软件项目、人才外包、猎头服务、综合项目等。米鼠网对于买家而言,提供了强大的供应商资源,并大幅降低了成本;对乙方而言,则提供了无限的商业机会,并将他们的专业技能转换成为现金收入。


来自 “ ITPUB博客 ” ,链接:http://blog.itpub.net/31555134/viewspace-2216149/,如需转载,请注明出处,否则将追究法律责任。

请登录后发表评论 登录
全部评论
米鼠网是一个创新的软件开发在线交易平台。它能帮助软件买家更好的节省采购成本,监控项目进度确保项目质量;同时它还能帮助软件卖家节省运营成本,解决项目来源等问题。

注册时间:2018-09-17

  • 博文量
    42
  • 访问量
    19613