您的位置:首页>动态>

学者和从业者都呼吁提高人工智能模型内部工作的透明度

这有很多充分的理由。透明度可以帮助减轻公平,歧视和信任的问题-所有这些都已引起越来越多的关注。例如,苹果的新信用卡业务被指控存在性别歧视的借贷模式,而亚马逊在发现歧视妇女的行为后便取消了一种AI招聘工具。

但是,与此同时,越来越明显的是,有关AI的披露具有自身的风险:解释可能会被黑,发布更多信息可能会使AI更容易受到攻击,而披露可能会使公司更容易受到诉讼或监管行动的影响。

称它为AI的“透明悖论”-尽管生成有关AI的更多信息可能会带来真正的好处,但也可能会带来新的风险。为了解决这个矛盾,组织将需要仔细考虑如何管理AI的风险,关于这些风险的信息,以及如何共享和保护这些信息。

最近的一些研究说明了这些趋势。让我们从上个月哈佛大学和加利福尼亚大学尔湾分校的学者发表的研究论文开始。本文重点讨论了如何利用LIME和SHAP的变种,这两种流行的技术可以用来解释所谓的黑盒算法。

为了说明LIME的强大功能,2016年发布了该工具的论文解释了原本难以理解的图像分类器如何识别图像中的不同对象:琴桥和指板的各个部分识别出一把原声吉他,而特定面部识别出了拉布拉多猎犬在狗脸右侧的特征。

LIME和可解释的AI运动得到了广泛赞誉,被誉为能够使不透明算法更加透明的突破。的确,解释AI的好处已被广泛接受,并受到包括我在内的学者和技术专家的吹捧。

但是,对LIME和SHAP进行新攻击的可能性凸显了被忽视的不利因素。正如研究表明的那样,可以故意操纵解释,从而不仅在模型中而且在模型解释中都失去信任。

不仅仅是这项研究证明了AI透明化的潜在危险。今年早些时候,Reza Shokri和他的同事说明了如何公开有关机器学习算法的信息可以使它们更容易受到攻击。同时,加州大学伯克利分校的研究人员证明,仅根据他们的解释就可以窃取整个算法。

由于安全和隐私研究人员集中更多的精力放在AI,这些研究,具有沿主的人,都表明了同样的结论:越模型的创建者揭示关于算法,更损害一个恶意的演员可能会导致。这意味着发布有关模型内部运作的信息实际上可能会降低其安全性或使公司承担更多责任。简而言之,所有数据都有风险。

好消息?组织长期以来一直在隐私,安全和其他领域面临透明悖论。他们只需要更新AI方法即可。

首先,尝试利用人工智能的公司需要认识到透明度存在成本。当然,这并不是说透明度不值得实现,仅仅是因为它还带来了一些缺点,需要充分理解。这些成本应纳入更广泛的风险模型中,该模型控制如何使用可解释的模型以及有关该模型的信息可供他人使用的程度。

其次,组织还必须认识到,安全性已成为AI世界中日益关注的问题。正如AI和我在隐私未来论坛上最近提出的那样,随着AI被更广泛地采用,肯定会发现更多的安全漏洞和错误。实际上,安全性可能是采用AI的最大长期障碍之一。

免责声明:本文由用户上传,如有侵权请联系删除!