AI可以通过新算法避免特定的有害行为

随着人工智能算法和系统变得越来越复杂并承担更大的责任,确保人工智能系统避免危险的有害行为变得越来越重要。最近,来自马萨诸塞州大学阿默斯特分校和斯坦福大学的一组研究人员发表了一篇论文,展示了如何通过使用一种引发精确数学指令的技术来避免特定的AI行为,该精确的数学指令可用于调整AI的行为。

根据TechXplore的说法,这项研究是基于这样的假设,即可以用数学函数和变量定义不公平/不安全的行为。如果这是真的,那么研究人员应该有可能训练系统来避免这些特定行为。该研究团队旨在开发一种可供AI用户使用的工具包,以指定他们希望AI避免哪些行为,并使AI工程师能够可靠地训练一个系统,该系统在实际场景中使用时将避免不必要的动作。

论文的第一作者,密歇根州阿默斯特分校的助理计算机科学教授Phillip Thomas解释说,研究团队旨在证明机器学习算法的设计人员可以使AI利用者更轻松地描述有害行为并使其高度AI系统很可能会避免这种行为。

研究团队通过将其应用于数据科学中的一个普遍问题,即性别偏见来测试他们的技术。该研究小组旨在通过减少性别偏向使用于预测大学生GPA的算法更加公平。研究团队利用实验数据集并指示其AI系统避免创建一个模型,该模型对某一种性别的GPA均被低估/高估。根据研究人员的指示,该算法创建了一个模型,该模型可以更好地预测学生的GPA,并且与以前的现有模型相比,系统性性别偏见要少得多。以前的GPA预测模型存在偏差,因为偏差减少模型通常太受限制而无法使用,或者根本没有使用偏差减少。

研究小组还开发了另一种算法。该算法在自动胰岛素泵中实现,旨在平衡性能和安全性。自动化胰岛素泵需要确定患者应服用多少胰岛素,进食后,理想情况下,胰岛素泵将输送足够大的胰岛素剂量以控制血糖水平。输送的胰岛素剂量不能太大或太小。

机器学习算法已经很擅长识别个体对胰岛素剂量的反应模式,但是这些现有的分析方法无法让医生指定应避免的结果,例如低血糖崩溃。相比之下,研究团队能够开发出一种方法,可以对其进行训练,以提供两种极端情况下的胰岛素剂量,从而防止剂量不足或过量。虽然该系统尚未准备好在实际患者中进行测试,但基于此方法的更先进的AI可以改善糖尿病患者的生活质量。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。