随着越来越多的现实世界环境中引入机器人,能够与人类用户有效合作对它们来说非常重要。除了与人类交流并协助他们完成日常任务外,机器人自主确定是否需要他们的帮助可能也很有用。
富兰克林与马歇尔学院的研究人员最近一直在尝试开发可以提高社交辅助机器人性能的计算工具,让它们能够处理人类给出的社交线索并做出相应的反应。在 arXiv 上预先发表并于上周在 2021 年 AI-HRI 研讨会上发表的一篇论文中,他们介绍了一种新技术,该技术允许机器人自主检测何时适合他们介入并帮助用户。
“我对设计帮助人们完成日常任务的机器人很感兴趣,比如做饭、学习数学或组装宜家家具,”进行这项研究的研究人员之一杰森·R·威尔逊告诉 TechXplore。“我不打算取代那些帮助完成这些任务的人。相反,我希望机器人能够补充人类的帮助,尤其是在我们没有足够的人来帮助的情况下。”
威尔逊认为,当机器人帮助人类完成给定的任务时,它应该以“有尊严”的方式来完成。换句话说,他认为机器人在理想情况下应该对用户的人性敏感,尊重他们的尊严和自主权。
机器人专家可以通过多种方式在其设计中考虑用户的尊严和自主权。在他们最近的工作中,Wilson 和他的学生 Phyo Thuta Aung 和 Isabelle Boucher 特别关注保护用户的自主权。
“机器人支持自主的一种方法是确保机器人在帮助过多和帮助过少之间找到平衡,”威尔逊解释说。“我之前的工作着眼于根据用户需要多少帮助来调整机器人的帮助量的算法。我们最近的研究重点是估计用户需要多少帮助。”
当人类在给定的任务上需要帮助时,他们可以明确地寻求帮助或以隐含的方式表达他们正在挣扎。例如,他们可以发表诸如“嗯,我不确定”之类的评论,或者通过面部表情或肢体语言表达他们的沮丧。人类用来交流他们需要帮助的其他隐含策略涉及使用他们的眼睛凝视。
“例如,一个人可能会先看看他们正在处理的任务,然后再看看可以帮助他们的人,然后再回头看看任务,”威尔逊说。“这种凝视模式,称为确认凝视,用于要求对方看他们正在看的东西,也许是因为他们不确定它是否正确。”
Wilson、Aung 和 Boucher 最近进行的研究的主要目标是让机器人以有用的方式自动处理与眼睛凝视相关的线索。他们创造的技术可以分析不同类型的线索,包括用户的语音和眼睛注视模式。
“我们正在开发的架构会自动识别用户的语音并对其进行分析,以确定他们是否在表达他们想要或需要帮助,”威尔逊解释说。“同时,系统还会检测用户的眼睛注视模式,确定他们是否表现出与需要帮助相关的注视模式。”
与其他增强人机交互的技术相比,该方法不需要有关用户正在完成的特定任务的信息。这意味着它可以很容易地应用于在各种现实环境中运行的机器人,并经过训练以处理不同的任务。
虽然 Wilson 和他的同事创建的模型可以在不需要特定任务的细节的情况下增强用户体验,但开发人员仍然可以提供这些细节以提高其准确性和性能。在最初的测试中,该框架取得了非常有希望的结果,因此它可以很快用于提高现有和新开发的社交机器人的性能。
“我们现在正在继续探索哪些社交线索最能让机器人确定用户何时需要帮助以及他们想要多少帮助,”威尔逊说。“我们尚未使用的一种重要的非语言交流形式是情感表达。更具体地说,我们正在研究分析面部表情,以了解用户何时感到沮丧、无聊、参与或挑战。”