美国伊利诺伊大学香槟分校的计算机科学家提出了一种新架构,使计算和存储能更紧密地结合在一起。这一想法并不是要完全取代处理器,而是将新功能添加到内存中,这样就可以在不需要更多电力的情况下让设备变得更智能。
如果约翰·冯·诺伊曼(John von Neumann)在今天设计计算机,他就不可能在处理器和内存之间建立一堵厚厚的墙。与冯·诺依曼同名的架构于1945年问世,它开启了第一批存储内存、可重复编程的计算机,而且一直是这个行业的支柱。
现在,是时候切换到一种更适合今天的数据密集型任务的设计了。2018年2月,在旧金山的国际固态电路会议(ISSCC)上,美国伊利诺伊大学香槟分校的计算机科学家Naresh Shanbhag和同事提出了一个新的架构,使计算和内存更紧密地结合在一起。这一想法并不是要完全取代处理器,而是将新功能添加到内存中,这样就可以在不需要更多电力的情况下让设备变得更智能。
这些科学家认为,采用此类设计可将人工智能从云端引入到消费电子产品中。用深度神经网络构建的人工智能通常通过执行一些简单的算法来完成任务,而将图像数据从存储内存移动到处理器所需的能量是运行计算的10到100倍。这就是在冯·诺依曼架构上运行的大多数人工智能的情况。因此,人工智能需要大量能源,神经网络被困在数据中心,而计算成了自动驾驶汽车等新技术的主要能耗需求。
斯坦福大学的一位电子工程师称,世界正逐渐意识到它需要摆脱这种混乱,计算必须接近内存。问题是,接近到什么程度?斯坦福大学的科研团队使用了一种不同寻常的架构和新材料,将碳纳米管集成电路置于电阻式存储器的顶部,这比在单独的芯片上建立更近。在ISSCC的演示中,他们的系统可以有效地对句子进行语言分类。
Shanbhag的团队和ISSCC的其他人坚持采用现有材料,并使用模拟控制电路以新的方式包围记忆细胞阵列。他们没有向处理器发送数据,而是对这些模拟电路进行编程,来运行简单的人工智能算法。他们称这种设计为“深度内存架构”。
Shanbhag不希望通过处理电路来分解内存子数组,因为这会降低存储密度。他认为在子阵列边缘进行处理的深度足以获得能量和速度优势,而不会丢失存储数据。Shanbhag的团队发现,当使用模拟电路检测存储在静态存储器中的图像中的人脸时,能源效率提高了10倍,速度提高了5倍。
斯坦福大学的电子工程师称,目前还不清楚内存计算能否为推翻现有架构提供足够大的好处。他认为内存计算的能量和速度必须提高1000倍才能说服半导体公司、电路设计者和程序员做出巨大的改变。
台湾国立清华大学的电气工程师张梦凡表示,一些初创公司正在开发一种类似的技术来构建专用的人工智能电路,并有机会进入较小的市场。