来源: 时间:2022-04-09 13:35:14
科学家警告说,人工智能系统的行为可能比预期的更像人类,“慈善机器人” 或旨在改进维基百科上文章的软件机器人有时会在网上对内容进行 “争斗”,这些内容可能会持续数年。
在维基百科上编辑机器人会自动撤销破坏、执行禁令、检查拼写、创建链接和导入内容,而其他机器人 (非编辑) 可以挖掘数据、识别数据或识别侵犯版权的行为。
观看我们所有来自Express Technology的视频
牛津大学和英国艾伦·图灵研究所的研究人员分析了他们在多大程度上破坏了维基百科,观察了他们在十年内 (来自2001个2010年) 对13种不同语言版本的互动。他们发现机器人相互作用,无论这是否是设计的,都会导致不可预测的后果。研究人员说,机器人比您预期的更像人类。在文化上不同的在线环境中,机器人的行为似乎有所不同。
这些发现对那些使用人工智能来建造自动驾驶汽车,网络安全系统或管理社交媒体的人发出了警告。研究人员说,我们可能必须更加关注bots的perse社交生活及其不同的文化。
研究发现,尽管在线世界已经成为机器人的生态系统,但我们对它们如何相互作用的了解仍然很差。尽管机器人是没有情感能力的自动机,但机器人与机器人之间的互动是不可预测的,并且以独特的方式行事。研究人员发现,德语版的维基百科机器人之间的冲突最少,平均在十年内,每个机器人都会撤消24次编辑。与葡萄牙语维基百科版本的机器人相比,这显示了相对的效率,葡萄牙语维基百科版本的机器人平均在十年内撤消了另一个机器人的编辑185次,研究人员说。
他们说,英语维基百科上的机器人平均在十年内破坏了另一个机器人的工作105倍,是人类恢复速度的三倍。研究结果表明,即使是简单的自治算法也会产生复杂的相互作用,从而导致意想不到的后果-“无菌战斗” 可能会持续数年,或者在某些情况下会陷入僵局。
虽然机器人在维基百科编辑中只占很小的比例 (0.1),但它们在所有编辑中占很大比例。尽管此类冲突仅占bots总体编辑活动的一小部分,但研究结果在突出其不可预测性和复杂性方面具有重要意义。牛津互联网研究所的Milena Tsvetkova说: “我们发现,机器人在不同的文化环境中表现不同,它们的冲突也与人类编辑之间的冲突非常不同。”
“这不仅对我们如何设计人工制剂有影响,也对我们如何研究它们有影响。我们需要对机器人的社会学进行更多的研究,”Tsvetkova说。
相关推荐
猜你喜欢