来源: 时间:2022-11-11 14:35:22
当一个机器人“死去”时,你会难过吗?对许多人来说,答案是“是”--这告诉我们一些重要的,也可能令人担忧的事情,关于我们对开始进入我们生活的社会机器的情感反应。
德克萨斯州贝德福德市42岁的营销和客户服务总监克里斯塔尔·怀特(Christal White)认为,几个月前,可爱、友好的Jibo机器人停在她的家庭办公室里,这一刻就来了。在她的房子里呆了两年多后,这个英尺高的人形和它诱人的圆形屏幕“脸”开始让她恼火。当然,它和她的孩子跳舞,玩有趣的文字游戏,但有时也会在电话会议上打断她。
怀特和她的丈夫彼得已经开始谈论把吉博搬进楼上空荡荡的客房。然后,他们听说了Jibo的制造商在业务崩溃时对该产品征收的“死刑”。消息是通过Jibo本身传来的,该公司表示其服务器将关闭,实际上是对其进行脑叶切除。
“我的心都碎了,”她说。“这就像一只讨厌的狗,你不太喜欢,因为它是你丈夫的狗。但后来你意识到你其实一直都很喜欢它。“
怀特一家远不是第一个体验这种感觉的人。今年,当美国宇航局与这个15岁的机器人失去联系时,人们在社交媒体上含泪向火星机遇号探测器道别。几年前,机器人公司波士顿动力公司(Boston Dynamics)发布了一段演示视频,视频中员工踢了一只类似狗的机器人,以证明它的稳定性。
像Jibo这样的智能机器人显然不是活着的,但这并不能阻止我们表现得像他们一样。研究表明,人们倾向于将人类特征投射到机器人身上,尤其是当它们以甚至模糊的类似人类的方式移动或行动时。
设计者承认,这些特征可以成为连接和操作的强大工具。随着机器人进入我们的家庭,这可能是一个特别尖锐的问题--尤其是如果像许多其他家用设备一样,它们也成为收集主人数据的管道。
南加州大学研究虚拟人类互动的教授乔纳森·格拉奇(Jonathan Gratch)表示:“当我们与另一个人、狗或机器互动时,我们如何对待它受到我们认为它有什么样的思维的影响。”“当你感觉到某样东西有情感时,它现在值得保护,免受伤害。”
研究人们与新技术互动的研究员朱莉·卡彭特说,机器人的设计方式会影响人们将叙事和情感投射到机械物体上的趋势。尤其是如果一个机器人有类似脸的东西,它的身体类似人类或动物的身体,或者只是自我指导,就像Roomba机器人真空。
“即使你知道机器人几乎没有自主性,当某个东西在你的空间中移动,并且它似乎有一种目标感时,我们会把它与有内在意识或目标的东西联系起来,”她说。
这样的设计决策也是切实可行的,她说。我们的家是为人类和宠物建造的,所以看起来和动作都像人类或宠物的机器人会更容易适应。
然而,一些研究人员担心设计师低估了与越来越像生命一样的机器人相关的危险。
例如,长期从事人工智能研究的麻省理工学院教授雪莉·特克尔(Sherry Turkle)担心,设计线索会欺骗我们,让我们认为一些机器人正在向我们表达情感。一些人工智能系统已经表现出社交和情感意识,但这些反应通常是脚本化的,这使得机器看起来比实际更“聪明”。
“同理心的表现不是同理心,”她说。“模拟的思考可能是思考,但模拟的感觉永远不是感觉。模拟的爱从来都不是爱。“
机器人初创公司的设计师坚持认为,随着机器人用途的扩大,人性化元素至关重要。旧金山NewDealDesign总裁加迪·阿米特(Gadi Amit)表示:“需要安抚公众,以表明你没有破坏公共文化。”
他的机构最近致力于为邮递员设计一种新的送货机器人--一种四轮、桶形的物体,尽管抽象,但它的脸很可爱;圆边;和指示它要转向的灯。
阿米特说,当人类和机器人一起在世界各地移动时,建立共同语言需要时间。但他预计这将在未来几十年发生。
但是和孩子们一起工作的机器人呢?2016年,总部位于达拉斯的初创公司RoboKind推出了一款名为Milo的机器人,专门设计用于帮助教自闭症儿童社交行为。这种类似于一个小男孩的机制现在已经在大约400所学校使用,并与数千名儿童合作。
它旨在与孩子在一定程度上建立情感联系,但RoboKind的联合创始人理查德·马戈林(Richard Margolin)表示,该公司对孩子们可能过于依赖机器人的担忧很敏感,机器人的语言和面部表情类似于人类。
因此,RoboKind建议限制课程,既要让Milo有趣,又要确保孩子们能够将这些技能转移到现实生活中。建议孩子们每周只和麦洛见面三到五次,每次30分钟。
相关推荐
猜你喜欢