朱松纯团队突破机器人可解释性验证登Science子刊

作者:c4t2024.12.02 18:14浏览量:2

简介:加州大学洛杉矶分校朱松纯团队在Science Robotics发表研究,通过整合符号方法与神经网络方法,为机器人行为提供从机制角度和功能角度的解释,并验证其在提升人类信任方面的效果。

在人类与智能机器人共存的未来愿景中,一个核心的挑战在于如何让人类真正信任机器人的行为。这不仅要求机器人能够高效执行任务,更关键的是,它们需要以人类可理解的方式解释自身的行为。近日,加州大学洛杉矶分校(UCLA)和加州理工大学喷气动力实验室的一项联合研究,在Science Robotics期刊上发表了一篇重要论文,该研究由朱松纯教授团队主导,提出了一种创新的方法,通过整合符号方法与神经网络方法,为机器人的行为提供从机制角度和功能角度的解释。

论文题为《双译记:UCLA朱松纯团队验证机器人任务中的可解释性》,研究的核心在于构建一个既能够高效执行任务,又能够向人类提供清晰解释的机器人系统。为了实现这一目标,研究者们开发了一种集成式框架,该框架包含两个主要部分:一个符号动作规划器和一个触觉预测模型。符号动作规划器使用随机语法作为基于规划器的表征,负责提供机制角度的解释,即描述任务的过程和多个规划步骤。而触觉预测模型则使用神经网络构建数据驱动的表征,负责提供功能角度的解释,即描述动作的效果或目标,并通过对原始输入的提炼来预测其效果以及决定下一步动作。

为了验证这一框架的有效性,研究者们设计了一项复杂的操作任务:打开具有多种安全锁机制的药瓶。这项任务不仅要求机器人进行精细的操作,还需要它能够解释自己的行为。实验表明,相比于单独的符号模型或触觉模型,组合模型在任务执行和解释方面均表现出更优的性能。机器人系统能够基于人类演示学习随机语法模型,并通过传感信息训练触觉预测模型,最终整合这两个模型来预测和解释自己的行为。

此外,研究者们还执行了一系列人类实验,以评估该机器人系统提供的解释能否促进人类用户的信任。实验结果显示,最适合促进信任的解释形式并不一定对应于那些能实现最佳任务性能的组分,这揭示了机器人社区需要采用更可能促进人类信任的模型组件,并将这些组件与其它能实现高任务性能的模型组件整合起来。

朱松纯教授在此前的一次演讲中也强调了可解释性人工智能的重要性。他指出,当前比较流行的人工智能技术采用的是“大数据,小任务”范式,这种范式下的人工智能系统往往缺乏可解释性,无法与人类进行有效交流。因此,未来要发展具有可解释性的人工智能,让人工智能技术跳出“黑箱”,成为可解释、可解读、可信任的技术。

该研究不仅为机器人行为的可解释性提供了新的思路和方法,也为人工智能技术的未来发展指明了方向。通过整合符号方法与神经网络方法,研究者们成功地在机器人任务中实现了可解释性与任务性能的双重提升。这不仅有助于推动机器人技术在更多领域的应用,也为构建人机共生共存的社会奠定了坚实的基础。

值得注意的是,在该研究中,机器人通过观察人类演示来学习并执行任务,这一过程中同时使用了符号表征与触觉表征。这种学习方式使得机器人能够更好地理解人类的行为和意图,从而为其行为提供更准确的解释。此外,研究者们还使用了一种经过改进的广义Earley解析器(GEP)来整合符号规划器和触觉模型,这一方法在实现高层符号规划器与低层触觉模型之间的协同工作方面发挥了关键作用。

综上所述,朱松纯教授团队在机器人任务中的可解释性方面取得了重要突破。他们的研究不仅为机器人行为提供了清晰的解释,还通过人类实验验证了这些解释在提升人类信任方面的效果。这一成果不仅有助于推动机器人技术的进一步发展,也为人工智能技术的未来应用提供了有益的启示。随着技术的不断进步和应用场景的不断拓展,我们有理由相信,未来的人工智能系统将更加智能、更加可解释、更加值得人类信任。