您的位置:首页>动态>

人工智能正以多种方式进入我们的生活

无论是在智能手机上,在家里还是在汽车上。这些系统可以帮助人们进行约会,开车甚至诊断疾病。但是,随着AI系统继续在人们的生活中发挥重要的协作作用,一个自然的问题是:我可以信任他们吗?我怎么知道他们会做我期望的?

可解释性AI(XAI)是AI研究的一个分支,旨在研究如何使人工代理对其人类用户更加透明和值得信赖。如果机器人和人要一起工作,那么可信度至关重要。XAI致力于开发人类认为值得信赖的AI系统,同时还能出色地完成设计任务。

在UCLA的视觉,认知,学习和自主中心,我们和我们的同事对哪些因素使机器更值得信任以及不同的学习算法如何使信任产生了兴趣。我们的实验室使用一种知识表示形式(AI用来解释其周围环境并做出决策的世界模型),人类可以更轻松地理解它们。这自然有助于解释和透明,从而提高人类用户的信任度。

在我们的最新研究中,我们尝试了机器人可以向人类观察者解释其动作的不同方式。有趣的是,引起人们最大信任的解释形式与产生最佳任务性能的学习算法并不对应。这表明性能和解释并不是天生就相互依赖的-单独优化一项可能不会为另一项带来最佳结果。这种差异要求机器人的设计要兼顾良好的任务表现和可信赖的解释。

教学机器人

在进行这项研究时,我们小组对两件事感兴趣。机器人如何最好地学习执行特定任务?那么,人们如何回应机器人对其动作的解释?

我们教了一个机器人,通过人类演示来学习如何打开带安全锁的药瓶。一个人戴着触觉手套,记录了人手打开瓶子时的姿势和力量。这些信息帮助机器人通过两种方式了解人类的行为:象征性和触觉性。符号表示您的行为的有意义的表示形式:例如,单词“ grasp”。触觉是指与您的身体姿势和动作相关的感觉:例如,手指合拢的感觉。

随着时间的流逝,机器人打开药瓶的象征性和触觉性解释。第一行是执行任务的机器人视频的静止图像。中间一行显示了该任务的符号说明。底行显示了触觉说明。图片来源:Edmonds等,科学。机器人。4,eaay4663(2019)

首先,机器人学习了一个符号模型,该模型对完成打开瓶盖任务所需的步骤顺序进行了编码。其次,机器人学会了一种触觉模型,该模型使机器人能够在人类演示者的角色中“想象”自己,并预测人在遇到特定姿势和力量时会采取什么动作。

事实证明,当结合符号和触觉组件时,机器人能够达到最佳性能。与单独使用两个机器人相比,使用机械手掌握执行任务的步骤知识和实时感测效果更好。

赢得人的信任

既然机器人知道该怎么做,它如何向人解释其行为?这种解释在多大程度上促进了人类的信任?

为了解释其动作,机器人可以利用其内部决策过程以及其行为。符号模型提供了机器人动作的逐步描述,而触觉模型则提供了对机器人抓手“感觉”的感觉。

在我们的实验中,我们为人类增加了一个额外的解释:一个文本文字,在机器人尝试打开药瓶后提供了摘要。我们希望了解摘要描述是否与逐步获得符号信任一样有效。

我们要求150名人类参与者(分为4组)观察机器人试图打开药瓶的过程。然后,机器人为每个小组对任务进行了不同的解释:象征性的,逐步的,触觉的-手臂的位置和动作,文本摘要或象征性的和触觉的。基线小组仅观察到机器人试图打开瓶子的视频,没有提供任何其他解释。

我们发现,提供符号解释和触觉解释都可以赢得最多的信任,而符号部分的贡献最大。有趣的是,以文本摘要的形式进行的解释并不能带来更多的信任,而不仅仅是观看机器人执行任务,这表明人类更喜欢机器人对自己的工作进行逐步解释。

免责声明:本文由用户上传,如有侵权请联系删除!