一个模型能预测人与机器人协作信任完成特定任务程度

2021-06-30 15:18  来源: it资讯网

密歇根大学的研究人员最近开发出一种双向模型,可以预测在涉及人与机器人协作的情况下,人类和机器人制剂在多大程度上可以信任。这个模型发表在《IEEE机器人与自动化快报》上的一篇论文中,可以帮助更可靠、更高效地将任务分配给不同的代理商。

"有很多研究旨在理解为什么人类应该或不应该信任机器人,但不幸的是,我们对机器人为什么应该信任或不应该信任人类知之二,"负责这项研究的研究人员之一赫伯特·阿泽维多-萨告诉TechXplore。但是,在真正的协作工作中,信任需要双向发展。考虑到这一点,我们希望构建机器人,能够与人类或其他代理商进行交互并建立信任,类似于一对协作的同事。

当人类在给定任务上协作时,他们通常观察他们正在协作的任务,并试图更好地了解他们可以和不能有效地完成哪些任务。通过互相了解和学习别人最好或最差的东西,他们建立了某种融洽的关系。

Azevedo-Sa解释道:"在信任发挥作用的地方:你建立信任,让你的同事去做一些任务,而不是其他任务。这也会发生在你的同事身上,他们为某些任务建立信任,但对其他任务则不信任你。

作为研究的一部分,Azevedo-Sa和他的同事试图复制人类学习其他人在使用计算模型时可以或不能信任的任务的过程。他们创建的模型可以代表人类和机器人的信任,因此它可以预测人类对它的信任程度以及它对人类完成给定任务的信任程度。

"信任人类和机器人之间的一大区别是,人类能够很好地执行任务,但缺乏执行任务的完整性和仁慈性,"Azevedo-Sa解释道。例如,人类同事可以很好地执行任务,但在他们应该(即缺乏诚信)或根本不关心做好工作(即缺乏仁慈)时,就不能参加工作。因此,机器人应该将其纳入对人类信任的估计中,而人类只需要考虑机器人是否有能力很好地执行任务。

研究人员开发的模型提供了代理能力的一般表示,其中可以包括有关其能力、完整性和其他类似因素的信息,同时考虑代理执行任务的要求。然后,将代理能力的这种表示与它要完成的任务的要求进行比较。

如果代理被认为能够执行给定任务,则模型认为该代理非常值得信任。另一方面,如果任务特别具有挑战性,而代理似乎能力不够或具备完成任务所需的素质,则模型对代理的信任度就会降低。

Azevedo-Sa 说:"这些代理能力表示方式也会随着时间而改变,具体取决于代理执行分配给它的任务的程度。这些代理和任务在能力和要求方面的表示是有利的,因为它明确记录了任务的难度,并允许该困难与不同代理的功能相匹配。

与其他先前开发的模型相比,该模型可以预测可以信任多少制剂,该研究小组引入的模型适用于人类和机器人。此外,当他们评估他们的模型时,Azevedo-Sa和他的同事发现,它比其他现有模型更可靠地预测信任。

Azevedo-Sa说:"以前的方法试图通过评估类似任务的口头描述来预测信任转移。"这些方法代表了信任模式向前迈出的一大步,但它们存在一些问题。例如:"拿起铅笔"和"捡鲸鱼"的任务有着非常相似的描述,但实际上它们非常不同。

从本质上讲,如果机器人有效地拿起或抓起一支铅笔,以前开发的预测信任的方法会自动假定同一个机器人可以信任拿起一个更大的物品(例如鲸鱼)。另一方面,通过代表任务的要求,Azevedo-Sa和他的同事设计的模型可以避免这种错误,区分机器人要拾取的不同物体。

将来,新的双向模型可用于加强各种环境中的人与机器人的合作。例如,它可以帮助在由人和机器人代理组成的团队中更可靠地分配任务。

"我们希望最终应用我们的模型来解决我们之前提到的任务分配问题,"Azevedo-Sa说。换句话说,如果机器人和人类一起执行一组任务,那么每个任务都应该分配给谁?将来,这些代理人或许可以谈判应该分配给每个人哪些任务,但他们的意见将从根本上取决于他们对彼此的信任。因此,我们希望研究如何建立我们的信任模式,在人类和机器人之间分配任务。