来源: 时间:2022-04-14 09:35:10
Alphabet Inc. 拥有的伦敦人工智能公司DeepMind声称,它克服了影响最有前途的机器学习技术之一的关键限制: 该软件无法记忆。
周二在《美国国家科学院院刊》上发表的一篇论文中描述了这一突破,可能为人工智能系统更容易应用于多项任务开辟了道路,而不是为一个目的而狭隘地训练。它还应提高AI系统在任务之间转移知识并掌握一系列链接步骤的能力。
观看我们所有来自Express Technology的视频
神经网络是松散地基于人脑突触结构的软件,被认为是用于语言翻译,图像分类和图像生成的最佳机器学习技术。但是这些网络存在一个重大缺陷,科学家称之为 “灾难性的遗忘”。它们以一种永久存在的形式存在: 每次给网络提供新数据时,它都会覆盖以前学到的知识。
在人类大脑中,神经科学家认为,记忆起作用的一种方式是,对于特定技能而言似乎很重要的神经元之间的连接变得不太可能被重新连接。DeepMind的研究人员借鉴了这种称为突触巩固的理论,以创建一种允许神经网络记忆的方法。他们与伦敦帝国学院的神经科学家克劳迪娅·克洛帕斯 (Claudia Clopath) 合作,克劳迪娅·克洛帕斯是该论文的合著者。“我们已经证明了有可能依次训练神经网络,这以前被认为是一个基本的限制,” 该论文的主要作者、DeepMind研究员詹姆斯·柯克帕特里克 (James Kirkpatrick) 在接受采访时说。
研究人员创建了一种称为弹性权重合并或EWC的算法,该算法计算神经网络中的每个连接对刚刚学习的任务的重要性,然后为该连接分配与其重要性成比例的数学权重。权重减慢了神经网络中该特定节点的值可以改变的速率。通过这种方式,网络能够在学习新任务的同时保留知识。
研究人员在十个经典的Atari游戏上测试了该算法,神经网络必须从头开始学习。DeepMind以前创建了一个AI代理,能够比任何人类玩家都玩得更好或更好。但是,较早的AI一次只能学习一个游戏。如果后来展示了它学到的第一批游戏之一,则必须重新开始。支持EWC的新软件能够学习所有十款游戏,并且平均而言,所有游戏的性能都接近人类水平。但是,研究人员写道,它的性能不如专门针对一个游戏进行训练的神经网络。
伦敦大学学院神经科学教授彼得·达扬 (peter Dayan) 表示,DeepMind的论文可能会使神经科学家在思考突触巩固如何工作时受益。他说,卡迪夫大学的心理学家约翰·皮尔斯 (John pearce) 的研究似乎表明,确定哪些突触可用于或不可用于新学习的机制非常相似。
DeepMind是Alphabet 2014年以4亿英镑 (4.864亿美元) 的价格购买的,以创造能够在古老的亚洲战略游戏Go中击败世界上最好的玩家的AI软件而闻名。这一成就被认为是计算机科学的一个重要里程碑,因为Go有太多可能的动作,以至于计算机不能简单地找出每种情况下的最佳动作,而是必须依靠更类似于直觉的东西-根据自己的经验进行有根据的猜测。
相关推荐
猜你喜欢