您的位置:首页>动态>

到了2029年人工智能将使偏见更加严重

换句话说,如果您现在认为结构性偏差很严重,请等到计算机接管为止。纽约大学AI Now研究所联合创始人凯特·克劳福德(Kate Crawford)去年在一次演讲中警告说:“偏见是一个更多的功能,而不是关于AI工作原理的错误。

”最糟糕的是,你可能永远都不知道机器是如何判断您的,或者为什么它们使您失去了机会,职业,奖学金或大学的资格。您从未在社交媒体Feed上看到广告,这是AI知道您是女性,并且可以维持现状,因此是您作为水喉匠,屋顶工或软件工程师的理想工作的广告。(相反,您只会看到针对女服务员或家庭保健工作者的广告-薪水较低,晋升机会较少。)顺便说一下,这些都是真实的例子。

哈佛大学的拉塔尼亚·斯威尼(Latanya Sweeney)进行的研究显示,招聘引擎将拉坦亚之类的候选人的职位降级的原因是,名叫拉塔尼亚的人一直很难找到工作。(而且,如果您确实是在网上搜索Latanya,那么您会在搜索犯罪背景的同时找到广告。)最近的一项实验表明,AI尤其喜欢打长曲棍球的应聘者Jared的简历,这佐证了这一点。您对世界的最恐惧的每一件事。但是,无限制地复制广告而没有监督。

数据只是问题的一部分。还有一些人(大多数是男人:AI研究人员中有88%的男人)构建了告诉机器要做什么的算法。有时错误的设计是无意的,例如当亚马逊决定创建一种对简历进行分类以找到最佳员工的AI时。亚马逊AI实验室的人员围绕一个问题建立了自己的算法-一个什么样的人被雇用在亚马逊工作-然后将几代简历放入机器中,以教给亚马逊成功雇员的属性。他们发现了什么?这种男性性是在亚马逊被录用的前提条件,因为只要亚马逊从事业务,它就一直提拔和奖励男性。令自己感到ham愧的是,人工智能天才们program草了他们的程序。他们试图使AI中立,

免责声明:本文由用户上传,如有侵权请联系删除!