一种名为NeuRRAM的节能芯片修复了一个旧有的计算机设计缺陷,可在较小的设备上运行大规模的人工智能算法,达到与相当耗能的数字计算机同样的精度。

数字计算与神经形态计算纠缠在一起的解决方案

我们许多人知道,人工智能近年来得到长足的发展,取得越来愈广泛的应用。但是,有个发展的瓶颈,那就是人工智能算法不可能以其目前的速度继续增长。像深度神经网络这样的算法,它受到大脑的启发,多层人工神经元通过称为权重的数值相互连接,其规模在日益庞大。如今,硬件的改进已经跟不上运行这些大规模算法所需的巨大内存和处理能力的步伐。

而且,即使可以不断扩大硬件规模以满足人工智能的需求,还有一个问题是:在传统计算机上运行会浪费大量的能源。运行大型人工智能算法所产生的高碳排放已经对环境造成有害影响,而且随着算法的日益庞大,情况只会变得更糟。

一种被称为神经形态计算的解决方案,从生物大脑中获得灵感,创造出节能的设计。这些芯片可以在节约能源方面超过数字计算机,但问题是:缺乏运行一个相当大的深度神经网络所需的计算能力。所以这个神经形态计算的解决方案在提出后一直没有受到重视。

这种情况在今年8月发生了显著变化,发表在《自然》杂志上的论文中,一个由斯坦福大学领导的国际研究团队揭示了一种新的神经形态芯片,其计算能力超过了数字计算机:

论文第一作者、万伟尔(WeierWan)毕业于斯坦福大学,博士期间师从论文资深作者、斯坦福大学黃汉森(H.-S.PhilipWong)教授,和论文资深作者、加州大学圣地亚哥分校格特·考文伯格(GertCauwenberghs))教授。

黃汉森教授于年加入斯坦福大学担任电气工程教授。从年到年,在IBMT.J.沃森研究中心从事研究。从年到年,他从斯坦福大学休假,在全球最大的半导体代工厂台积电担任研究副总裁,自年起继续担任台积电首席科学家。

这篇论文描述了一款名为“NeuRRAM”的AI芯片,这款芯片采用了基于阻变式存储器(ResistiveRAM,RRAM)的“存算一体”架构来减少数据流动。它在支持多种人工智能应用的同时,大幅提升了能效,使得在边缘设备中实现复杂的人工智能任务成为可能。

这种新型的神经形态芯片包含万个存储单元和数千个内置在其硬件中的神经元,以运行算法。该研究的阻变存储器与以前的不同,NeuRRAM被编程为以模拟方式运行,以节省更多的能源和空间。虽然数字存储器是二进制的,存储1或0,但NeuRRAM芯片中的模拟存储器单元可以沿着一个完全连续的范围存储多个值。这使得该芯片能够在相同的芯片空间内存储来自大规模人工智能算法的更多信息。

因此,在图像和语音识别等复杂的人工智能任务上,这种新芯片的性能不亚于数字计算机,该研究声称它的能效高达倍,这为微型芯片在以前不适合人工智能的小型设备,如智能手表和手机中运行越来越复杂而高级的运算提供了可能性。

学界评论这一研究成果说:"这篇论文相当独特。它在不同的层面做出了贡献:在设备层面、在电路架构层面、以及在算法层面。"

创造新的记忆

在数字计算机中,当运行人工智能算法时浪费的大量能量是由一个简单而普遍存在的设计缺陷造成的,它使每一次计算都变得低效。通常情况下,计算机的内存,即保存计算过程中的数据和数值,被放置在远离处理器的主板上,而处理器是进行计算的地方。

最近从斯坦福转到了人工智能物联网((AIoT))公司Aizip的万伟尔解释说,对于流经处理器的信息来说,"这有点像你花了8个小时的通勤时间,但你却做了2个小时的工作。"

NeuRRAM芯片可以在其内存中运行计算,它在内存中存储的数据不是传统的二进制数字,而是模拟光谱。

用新的一体式芯片来解决这个问题,把内存和计算放在同一个地方,方式很直接。它也更接近我们的大脑可能处理信息的方式,许多神经科学家认为我们大脑的计算是发生在神经元群中,而记忆是在神经元之间的突触加强或减弱其连接时形成的。但问题是:开发这种设备绝非易事,因为目前的记忆形式与处理器中的技术不兼容。

几十年前,计算机科学家们开发了这种创造新芯片的材料,这些芯片在存储内存的地方进行计算,这种技术被称为内存计算(

转载请注明地址:http://www.abmjc.com/zcmbyf/3631.html