来源: 时间:2022-05-31 13:35:05
麻省理工学院的科学家,包括印度裔的科学家,开发了一种新系统,可以让机器人像Siri和Alexa等人工智能(AI)助手一样理解语音命令。目前机器人所能做的非常有限。他们无法理解人类语言的细微差别,这使得他们对更复杂的请求几乎毫无用处。
例如,如果你把一个特定的工具放在工具箱里,让机器人“捡起它”,它就会完全丢失。拿起它意味着能够看到和识别物体,理解命令,认识到所说的“它”是你放下的工具,回到过去记住你放下工具的时刻,并将你放下的工具与其他形状和大小相似的工具区分开来。
麻省理工学院(MIT)的研究人员已经接近让这种类型的请求变得更容易。他们开发了一个类似Alexa的系统“Comtext”--用于“上下文中的命令”--允许机器人理解广泛的命令,这些命令需要关于对象及其环境的上下文知识。
“在人类将世界理解为对象、人和抽象概念的集合的地方,机器将其视为像素、点云和从传感器生成的3D地图,”罗翰·保罗说,“这种语义差距意味着,为了让机器人理解我们希望它们做什么,它们需要对我们做什么和说什么有更丰富的表示,”保罗说。
该团队在一个双臂人形机器人巴克斯特上测试了ComText。ComText可以观察一系列的视觉效果和自然语言来学习一个物体的大小、形状、位置、类型,甚至它是否属于某人。从这个知识库中,它可以进行推理,推断含义并响应命令。
Barbu说:“机器人的主要贡献在于这个想法,即机器人应该像人一样拥有不同种类的记忆。”使用ComText,Baxter在90%的时间内成功地执行了正确的命令。未来,该团队希望能让机器人理解更复杂的信息,比如多步命令、动作意图,以及使用关于物体的属性与它们更自然地交互。
通过创建更少约束的交互,这一研究路线可以为一系列机器人系统提供更好的通信,从自动驾驶汽车到家庭帮手。美国华盛顿大学副教授卢克·泽特勒莫耶(Luke Zettlemoyer)没有参与这项研究,他说:“这项工作朝着制造能与人更自然互动的机器人迈出了很好的一步。”
Zettlemoyer说:“特别是,它将帮助机器人更好地理解用于识别世界上物体的名称,并解释使用这些名称的指令,以更好地完成用户的要求。”
相关推荐
猜你喜欢