ITPub博客

首页 > 数据库 > SQL Server > AI及其判别算法

AI及其判别算法

原创 SQL Server 作者:Tybyq 时间:2018-11-06 17:24:22 0 删除 编辑

人工智能已经风靡整个行业。它正在传播具有高度先进技术痕迹的宝石,并以其简单的触感,改变了科技世界的面貌。随着它为捕捉不同行业铺平道路,它影响最新趋势和激动人心的复杂性,最终给营销人员,开发人员和创意艺术家带来巨大压力。

然而,由于有关人工智能算法的一些令人震惊的更新已经浮现在行业中,科技巨头之间激起了许多相互矛盾的观点和判断。据报道,人工智能算法被认为会产生种族主义和偏见的歧视。

AI驱动的算法以无数的方式影响着我们的生活。从提供表明您遇到麻烦的技术,在驾驶时潜伏在您附近,识别您的声音并满足您的所有需求,而您甚至无需移动手指。由于其广泛的方法和不可逾越的好处,它帮助设计师创建令人难以置信的创意设计和开发人员,以生产可以像人脑一样的设备。今天,AI机器人被用作为维基百科等伟大网站撰写合法文章的客户支持的重要来源。

当我们揭示人工智能给世界及其人民带来的各种优势和贡献时,很难相信它也会产生如此严重的歧视。在许多主要报道中,人工智能驱动的机器人被视为刺激歧视行为。请在下面详细了解它们:

招聘申请人

面部识别软件现在已经成为一个受关注的话题,因为它正在传播性别消除。根据IT研究提出的研究,当识别具有较暗肤色的人的面部时,该系统的执行效率较低。与此同时,亚马逊也忽略了人工智能招聘系统,因为它是以性别中立的方式对候选人进行评级而不是承认他们的专业知识。随着这些问题开始在科技行业引起轰动,许多领先的专家提出了他们对类似问题的观察和研究。像Cathy O'Neil和Virginia Eubanks这样的专家推出了他们的畅销书籍“数学毁灭武器”和“ 自动化不平等” 分别以令人难以置信的发现轰动了整个行业。 

受害无辜者

PredPol被用于美国的几个州 - 一个识别犯罪率较高的地方的系统被采取行动,以减少人类的偏见。然而,在2016年,根据人权数据分析小组提出的调查结果,“该软件可能会使警方不公平地对某些社区收费。” 

添加另一个支持的研究来证明这一点,提出了2012年的研究由电气和电子工程师协会(IEEE)表示,由于警方侦察行动的一部分,关于面部识别工作仅相机犯罪嫌疑人达5-10%,这在识别非裔美国人时表现得最不准确。这项伟大的研究清楚地表明了对无辜黑人公民的巨大歧视。

机器人债务恢复计划

Centrelink债务追回软件的新案例引发了许多严重指责,即人工智能是造成人类偏见的因素。超过18个月,人们被错误地定位。超过20,000名福利受助人被指控债务,后来被发现几乎没有钱。由于系统中发现了一些严重的缺陷,这个巨大的问题被触发了。

写得不好的算法传播人类的偏见

最近发生的一些事件突出了AI算法写得不好的事实。Facebook注册时可能不会歧视其13亿会员; 然而,在2018年2月,Facebook允许营销人员根据关于哪类人可以查看这些广告的标准上传有针对性的广告,包括种族,性取向,宗教和种族的差异。

此外,在另一个帐户上,当微软Tay,编程为学习内容的人工智能聊天机器人,人们在模仿人类对话时发推文时,新闻得到了支持。当Tay 因为许多恶意巨魔变成“ 一个充满希特勒的肮脏机器人 ” 时,事情出了问题。

此外,早在2015年,一项研究表明,谷歌搜索首席执行官的图片仅占11%的女性,而在美国,首席执行官职位的比例恰好为27%。再过几天,一项新的研究显示,男性申请人获得了所有高薪工作。Anupam Datta 在匹兹堡的卡内基梅隆大学展示了这项研究。根据Datta的说法,Google算法将男性视为最适合所有高薪工作和领导职位的申请人,从用户的行为中学习。

由AI-Bots评判的2016年选美比赛的失败

2016年3月,举办了一场大型选美比赛,来自印度和非洲的60多万男女参加了比赛。参与者被要求发送他们的自拍,三个机器人应该判断事件。机器人被编程以比较演员和模特的面部特征。尽管在结果公布时收集了超过50,000家餐馆,但据观察,近44名获奖者是白人。青年实验室的研究人员在研究情况后表示,机器人拒绝考虑光线不良影响的黑皮肤人物的照片。他们没有用算法来判断更暗的肤色。

包起来

在计划盲目依赖机器学习系统之前,深入了解算法。它可能被证明是非常有益的,同时也是传播人类偏见的一个原因。


来自 “ ITPUB博客 ” ,链接:http://blog.itpub.net/31557424/viewspace-2218945/,如需转载,请注明出处,否则将追究法律责任。

请登录后发表评论 登录
全部评论

注册时间:2018-10-31

  • 博文量
    206
  • 访问量
    160296