记者从清华大学微信获悉,清华大学集成电路学院教授吴华强、副教授高滨团队基于存算一体计算范式,研制出全球首颗全系统集成的、支持高效片上学习(机器学习能在硬件端直接完成)的忆阻器存算一体芯片。相关成果已发表于一期的《科学》。
记者了解到,“存算一体”这一技术概念诞生于上世纪70年代,区别于1946年由冯·诺依曼提出的存储器和处理器分工处理数据的计算机架构,存算一体将计算能力嵌入存储器当中。在当时,由于芯片制造能力不成熟,且算力需求不旺盛,存算一体并未得到很好的发展。而随着人工智能等应用对于数据存储和计算需求的不断提升,处理数据的能耗逐渐增加,在传统存算分离结构当中,存储带宽可能导致在数据搬运上花费大量时间,进而制约芯片算力,与之相比,存算一体便体现出了独特优势。
2012年,钱鹤、吴华强团队开始研究使用忆阻器做存储。忆阻器是继电阻、电容、电感之后的第四种电路基本元件。它可以在断电之后,仍能“记忆”通过的电荷,因此被当做新型纳米电子突触器件。2020年,团队基于多阵列忆阻器,搭建了一个全硬件构成的完整存算一体系统,此系统高效运行了卷积神经网络算法,成功验证了图像识别功能,比图形处理器芯片的能效高两个数量级,大幅提升了计算设备的算力,实现了以更小的功耗和更低的硬件成本完成复杂计算。
片上学习对于边缘智能设备适应不同应用场景非常重要。当前用于训练神经网络的技术需要在计算和存储单元之间移动大量数据,这阻碍了在边缘设备上实现学习。此次研究,钱鹤、吴华强带领团队创新设计出适用于忆阻器存算一体的高效片上学习的新型通用算法和架构STELLAR,该架构中的方案包括其学习算法、硬件实现和并行电导调谐方案,是通过使用忆阻器交叉栅阵列促进片上学习的通用方法。
据了解,该芯片可执行的任务包括运动控制、图像分类和语音识别。相同任务下其能耗仅为ASIC的1/35,同时有望实现75倍的能效提升。
“存算一体片上学习在实现更低延迟和更小能耗的同时,能够有效保护用户隐私和数据。”学术论文第一作者之一、博士后姚鹏介绍,该芯片参照仿生类脑处理方式,可实现不同任务的快速“片上训练”与“片上识别”,能够有效完成边缘计算场景下的增量学习任务,以极低的耗电适应新场景、学习新知识,以满足用户的个性化需求。