来源: 时间:2022-07-04 15:35:01
科学家们开发了一种新型神经网络芯片,可以大幅提高教机器像人类一样思考的效率。该网络被称为油藏计算系统,可以在对话中说出之前预测单词,并帮助预测基于当前的未来结果。
储集层计算系统在传统神经网络的基础上提高了容量,减少了所需的训练时间,过去已经用较大的光学元件创建了储集层计算系统。美国密歇根大学的研究人员使用忆阻器创建了他们的系统,所需空间更小,可以更容易地集成到现有的硅基电子设备中。
忆阻器是一种特殊类型的电阻器件,既能执行逻辑,又能存储数据。这与典型的计算机系统形成鲜明对比,在典型的计算机系统中,处理器执行与存储模块分离的逻辑。这项研究发表在《自然通讯》杂志上,研究人员使用了一种特殊的忆阻器,只记忆近历史上的事件。
受大脑的启发,神经网络由神经元或节点以及节点之间的连接突触组成。为了训练神经网络完成一项任务,神经网络接受大量问题和这些问题的答案。在这个被称为监督学习的过程中,节点之间的连接被更重或更轻地加权,以最大限度地减少获得正确答案的错误量。
一旦训练好,神经网络就可以在不知道答案的情况下进行测试。例如,一个系统可以处理一张新照片并正确识别人脸,因为它已经从其训练集中的其他照片中学习了人脸的特征。“很多时候,训练一个网络需要几天或几个月。它非常昂贵,“密歇根大学教授韦鲁说。
图像识别也是一个相对简单的问题,因为它不需要除了静态图像之外的任何信息。更复杂的任务,如语音识别,高度依赖于上下文,需要神经网络知道刚刚发生了什么或刚刚说了什么。“当把语音转录为文本或翻译语言时,一个词的意思甚至发音都会因前面的音节而不同,”卢说。
这需要一个递归神经网络,它在网络中加入循环,给网络一个记忆效果。然而,训练这些递归神经网络特别昂贵,Lu说。然而,用忆阻器构建的水库计算系统可以跳过大部分昂贵的训练过程,并仍然为网络提供记忆能力。
这是因为该系统最关键的组成部分--水库--不需要训练。当一组数据被输入到存储库中时,存储库识别数据的重要的时间相关特征,并以更简单的格式将其传递给第二网络。
然后,第二个网络只需要像更简单的神经网络那样训练,改变第一个网络传递的特征和输出的权重,直到它达到可接受的误差水平。“水库计算的美妙之处在于,当我们设计它时,我们不必训练它,”卢说。
该小组通过手写识别测试证明了储层计算的概念,手写识别是神经网络中的一个常见基准。仅使用88个忆阻器,而传统的网络需要数千个忆阻器来完成这项任务,该水库实现了91%的精度。
相关推荐
猜你喜欢