HP关于忆阻器的发现在2008年时发表于「自然」期刊,2009年证明了CrossLatch的系统很容易就能堆栈,形成立体的内存。
技术每个电线间的「开关」大约是3nmx3nm大,开关切换的时间小于0.1ns,整体的运作速度已和DRAM差不多,但是开关次数还不如DRAM--还不足以取代DRAM,但是靠着1cm²100gigabit(GB),1cm³1petabit(数据存储单位1PB=1000TB)(别忘了它是可以堆栈的)的惊人潜在容量,干掉闪存是绰绰有余的。
但是CrossbarLatch可不止用来储存数据而已。
它的网格状设计,和每个交叉点间都有开关,意味着整组网格在某些程度上是可以逻辑化的。
在原始的CrossbarLatch论文中就已经提到了如何用网格来模拟AND、OR和NOT三大逻辑闸,几个网格的组合甚至可以做出加法之类的运算。
这为摆脱晶体管进到下一个世代开了一扇窗,很多人认为忆阻器电脑相对于晶体管的跃进,和晶体管相对于真空管的跃进是一样大的。
另一方面,也有人在讨论电路自己实时调整自己的状态来符合运算需求的可能性。
这点,再搭配上忆阻器的记忆能力,代表着运算电路和记忆电路将可同时共存,而且随需要调整。
这已经完全超出了这一代电脑的设计逻辑,可以朝这条路发展下去的话,或许代表着新一代的智慧机器人的诞生。
忆阻器和CrossbarLatch的组合代表的是电脑科技的全新进展,或许能让我们再一次延续摩尔定律的生命,朝向被机器人统治的未来前进。
惠普实验室的研究人员认为RRAM就是Chua所说的忆阻器,其报道的基于TiO2的RRAM器件在2008年5月1日的《自然》期刊上发表。
加州大学伯克利分校教授蔡少棠,1971年发表《忆阻器:下落不明的电路元件》论文,提供了忆阻器的原始理论架构,推测电路有天然的记忆能力,即使电力中断亦然。
惠普实验室的论文则以《寻获下落不明的忆阻器》为标题,呼应前人的主张。
蔡少棠接受电话访问时表示,当年他提出论文后,数十年来不曾继续钻研,所以当惠普实验室人员几个月前和他联系时,他吃了一惊。
RRAM可使手机将来使用数周或更久而不需充电;使个人电脑开机后立即启动;笔记型电脑在电池耗尽之后很久仍记忆上次使用的信息。
忆阻器也将挑战掌上电子装置内普遍使用的闪存,因为它具有关闭电源后仍记忆数据的能力。
RRAM将比今日的闪存更快记忆信息,消耗更少电力,占用更少空间。
忆阻器跟人脑运作方式颇为类似,惠普说或许有天,电脑系统能利用忆阻器,像人类那样将某种模式(patterns)记忆与关联。
RRAM为制造非易失性存储设备、即开型PC、更高能效的计算机和类似人类大脑方式处理与联系信息的模拟式计算机等铺平了道路,未来甚至可能会通过大大提高晶体管所能达到的功能密度,对电子科学的发展历程产生重大影响。
研究人员表示,忆阻器器件的最有趣特征是它可以记忆流经它的电荷数量。
蔡教授原先的想法是:忆阻器的电阻取决于多少电荷经过了这个器件。
也就是说,让电荷以一个方向流过,电阻会增加;如果让电荷以反向流动,电阻就会减小。
简单地说,这种器件在任一时刻的电阻是时间的函数———或多少电荷向前或向后经过了它。
这一简单想法的被证实,将对计算及计算机科学产生深远的影响。
比勒菲尔德大学托马斯博士及其同事在2012年就制作出了一种具有学习能力的忆阻器。
2013年,安迪·托马斯利用这种忆阻器作为人工大脑的关键部件,他的研究结果将发表在《物理学学报D辑:应用物理学》杂志上。
安迪·托马斯解释说,因为忆阻器与突触的这种相似性,使其成为制造人工大脑——从而打造出新一代的电脑——的绝佳材料,“它使我们得以建造极为节能、耐用,同时能够自学的处理器。
”托马斯的文章总结了自己的实验结果,并借鉴其他生物学和物理学研究的成果,首次阐述了这种仿神经系统的电脑如何将自然现象转化为技术系统,及其中应该遵循的几个原则。
这些原则包括,忆阻器应像突触一样,“注意”到之前的电子脉冲;而且只有当刺激脉冲超过一定的量时,神经元才会做出反应,忆阻器也是如此。
忆阻器能够持续增高或减弱电阻。托马斯解释道:“这也是人工大脑进行学习和遗忘的过程中,忆阻器如何发挥作用的基础。”
忆阻器工作原理
在当今科技前沿,类脑计算正逐渐揭示人脑的神秘面纱,将复杂的神经网络原理和硬件设计相结合,目标是模拟并超越人类大脑的智能。
CCF的综述揭示了这一领域的关键要素,如大脑解析、神经形态器件(如硅基忆阻器)、脉冲神经网络和芯片技术,旨在构建层次分明的系统,从结构的模仿到功能的再现,再到智能的超越。
神经元行为的精确模拟是关键,HH、LIF和Izhikevich模型构建了神经元行为的理论框架。
神经系统的信息编码和学习机制,如STDP和各种学习算法,如监督的反向传播与非监督的Hebbian学习,都在这一过程中扮演着重要角色。
多层网络如SpikeProp,以及认知计算架构如事件驱动的POG,共同构建了类脑计算的智能基础。
应用领域广泛,如仿生感知,如视觉和语音识别,依赖于高效的芯片设计。
ANN和SNN(人工神经网络和spikes-based神经网络)芯片,以及神经启发的NE芯片,聚焦于计算密度、能源效率和学习能力的提升。
NVM器件,如RRAM、PCM、MRAM和FLASH,为实现不同特性提供了可能,如通过矩阵乘法利用NVM阵列来处理权重。
架构设计上,突触-神经元核心是一个集成NVM阵列的复杂组件,采用数据流水线和细粒度并行,使得学习算法如片外、片上(STDP)和混合学习得以实现。
从编译到映射算法,涉及内存优化和器件编程,以及EDA工具的使用,如模拟器和电路模型,以预测和优化性能。
类脑计算系统的层次结构清晰,包括软件层的POG和神经形态框架,硬件层的类脑芯片以及编译支持。
完备性在于对大脑功能的接近性和计算能力的融合。
系统层次结构中,POG是事件驱动操作符图,硬件层则关注于调度、处理和内存网络的协调。
神经形态特点凸显了并行处理、低功耗和内存-处理的集成优势,模型选择需根据具体应用定制,从胞体到树突的细节模型,如HH模型的生物真实度,STDP模型的生物启发实现。
从算法和学习层面看,无论是监督学习的精确训练还是非监督学习的自适应调整,都在类脑芯片的设计中扮演重要角色。
硬件层面,从FPGA到ASIC,再到FPAA和Neurogrid等神经形态硬件的实现,忆阻器、CBRAM、相变存储器和自旋器件等新兴技术都在推动着硬件的创新。
类脑计算的应用挑战与未来展望,SNN的硬件实现、信息编码的速率和时间策略,以及网络映射的优化,都在推动着类脑处理器的低功耗和分布式内存设计。
像LIF神经元模型在Neurogrid和ROLLS中的模拟,展示了生物启发的深度。
突触模型以生物学原理为基础,如电流刺激和权重调控,揭示了学习与适应的奥秘。尽管训练SNN面临挑战,但通过开发仿生无监督算法和从ANN到SNN的转换,未来有望实现更高效的神经网络训练。
硬件实现策略和潜在趋势中,3D集成和低功耗技术为在线训练提供了可能。类脑神经网络研究的前沿,如黄铁军团队和Zhang等人的工作,持续推动着这一领域的进步。
还没有评论,来说两句吧...