科学家提出存内计算全新技术路径,提升AI模型计算能效3个数量级
快科技10月2日消息,根据洛图科技(RUNTO)线上监测数据,8月份作为传统销售淡季,消费者有效需求不足,导致大多数客厅智能设备市场表现下滑。具体来看,中国智能音箱线上监测市场销量为33.3万台,同比下降29.3%;监测销额为0.78亿元,同比下降36.2%。当月下降幅度有所扩大,且中高端产品发展受阻,均价不断下降。在品牌方...
随着大数据时代 AI 模型参数量激增,AI 模型推理和训练的成本日益增高,使得 AI 模型难以有效地被布署到边缘计算设备中。
存内计算技术是加速 AI 模型的主流路径,它通过在存储器内部原位计算减少数据的搬运,来提高芯片算力与能效。
但是,需要了解的是,传统存内计算(single-IMC,single-in-memory computing)架构仍然需要在存储器和处理器之间进行数据传输,仅部分地 了数据搬运的问题,限制了 AI 模型加速器的进一步发展。
为了 上述问题,北京大学孙仲研究员团队设计了一种全新技术路径的存内计算架构,称为“双存内计算”(dual-IMC,dual in-memory computing)。
该架构能够最大程度地加速 AI 模型中的矩阵-向量乘法(MVM,m x-vector multiplic ion)计算,如卷积神经网络、二值神经网络、Tran ormer 模型等,从而实现高速、高能效的 AI 模型推理和训练。
该架构基于非易失性存储器阵列设计,使 MVM 的矩阵、向量元素均存储在内存阵列中并参与原位 MVM 运算。
“这种独特的设计可完全 数据的搬运,最大程度地发挥存内计算的优势,从而实现真正意义上的存储器内计算。”孙仲表示。
与传统的存内计算架构相比,dual-IMC 架构使 MVM 的能效提高了 3 到 4 个数量级,有望应用于边缘计算系统和终端设备部署中,以构建先进的神经网络加速器。
图丨孙仲课题组(来源:该团队)
北京航空航天大学康旺教授对该研究评价称,该团队提出并演示了一种用于矩阵向量乘法的全存内计算新方法,使得参与运算的权重矩阵和向量都可以存储在阵列中并参与原位计算,从而有望完全 数据移动,提高存内计算的能效。
他指出,“该工作虽然目前仅展示了较小规模的演示,但理论上可以扩展到更大规模阵列。这是一个很新颖的想法,相信未来它会对存内计算领域(学术界和业界)产生实际的影响。”
近日,相关论文以《用于加速神经网络的矩阵-向量乘法的双存内计算》(Dual in-memory computing of m x-vector multiplic ion for acceler ing ne al networks)为题发表在 Cell 子刊 Device 上 [1]。
北京大学博士研究生王识清是论文 作者,孙仲研究员担任通讯作者。
图丨相关论文(来源:Device)
目前,神经网络计算加速是发展计算范式和架构的主要驱动力。在神经网络的推理和训练过程中,计算量最大的操作为 MVM。因此,利用非易失性存储器加速 MVM 成为当下学术界和工业界关注的热点方向。
图丨存内计算技术全谱(来源:N e Electroni )
但是,在加速 MVM 的传统存内计算架构中,只有一个输入操作数,即权重矩阵存储在内存阵列中,而另一个输入操作数,即输入向量仍然要在传统的冯·诺依曼架构中流动。
这需要通过访存片外主存和片上缓存,再经过数模转换之后作为模拟电压向量输入到阵列中进行 MVM 计算。
也就是说,传统的 single-IMC 仅部分地 了冯·诺伊曼瓶颈问题,其仍然会带来数据搬运和数模转换的沉重负担,这从根本上限制了计算性能的提高。
此外,为了保证高计算并行度,计算时要同时开启多行字线,这会导致阵列中产生较大的电流,这是 single-IMC 架构的另一个缺点。
图丨传统的单存内计算(single-IMC)架构(来源:Device)
2023 年,孙仲课题组与合作者在 N e Electroni 上发表论文,提出存内计算技术全谱的概念,并对所有类型的存内计算技术进行了原理性的分类 [2]。
此外,该团队还在 Science Advances 报道了一种基于阻变存储器阵列的新型模拟计算电路,使微秒级一步求解复杂的压缩感知还原成为可能 [3]。
受存内计算技术全谱概念的启发,研究人员设计了将两个输入操作数都存储在内存中的 dual-IMC 架构,其中矩阵(神经网络权重)和向量(神经网络输入)都存储在同一阵列中,以参与加速 MVM 的原位计算。
双存内计算架构基于团队在压缩感知还原电路设计中原创的电导补偿原理设计,仅需要施加极为简单的独热编码的数字电压,就可以完成 MVM 计算。
计算过程中无需数模转换器,从而进一步节省芯片面积,优化了计算的延时和功耗。此外,每次 MVM 计算仅 存储器阵列的一行字线,这能够减少阵列中累积的电流。
因此,dual-CIM 架构完全 了片外动态随机存取存储器(DRAM,Dynamic Random Access Memory)和片上静态随机存取存储器(SRAM,St ic Random-Access Memory)访存造成的额外延时和功耗,同时也避免了这些易失性存储器的静态功耗。
王识清表示:“这一创新的技术路径不仅简化了硬件结构,而且在性能上也取得了显著的提升。即便在最坏情况,在需要对特殊介质进行写入时,双层存内计算架构仍能提供数倍的性能提升。”
图丨双存内计算(dual-IMC)架构(来源:Device)
基于制备的阻变存储器阵列,该团队对 dual-IMC 架构进行了概念性的实验验证,并演示了该架构在压缩信号还原、卷积神经网络和二值神经网络中的应用。
总的来说,该研究为后摩尔时代的计算性能提升提供了一种全新的技术方案,通过完全在存储器内部进行的矩阵-向量乘法操作,实现了显著的加速和能效优化,为神经网络和其他重要算法的硬件实现提供了新的可能性。
参考资料:
1.Wang,S.,Sun,Z. Dual in-memory computing of m x-vector multiplic ion for acceler ing ne al networks. Device(2024). https://doi.org/10.1016/j.device.2024.100546
2.Sun, Z., Kv insky, S., Si, X. et al. A full spectrum of computing-in-memory technologies. N e Electroni 6, 823–835 (2023). https://doi.org/10.1038/s41928-023-01053-4
3.Wang,S. et al. In-memory analog solution of compressed sensing recovery in one step. Science Advances 9,50(2023). https://www.science.org/doi/10.1126/sciadv.adj2908
排版:刘雅坤