10.3772/j.issn.1002-0470.2022.07.004
深度卷积的软硬件协同优化设计与实现
近年来,深度学习技术被广泛应用.由于移动设备同时受到算力和功耗的限制,很多轻量级的网络被提出,比如Xception、MobileNet系列等.在这些轻量级网络中,深度卷积的层数占网络中所有卷积层数的31% ~50%,故如何优化深度卷积的运算是一个值得研究的问题.通用中央处理器(CPU)、固定运算器长度的单指令多数据流(SIMD)处理器均无法高效处理神经网络中的各种规模的深度卷积,性能较低.针对这一问题,本文提出了一种软硬件结合的方法优化深度卷积的计算,通过一个多种权值传输模式的硬件架构设计,结合软件模式选择、数据拆分等优化方式,在提高运算效率的同时减少了访存量.实验结果表明,使用该方法实现的深度卷积加速器,相比通用CPU最大可达9.3倍的性能加速,相比运算器长度为64的单核SIMD处理器最大可达29.3倍的性能加速.
神经网络、深度卷积、加速器、软硬件协同优化、计算效率
32
TP391;TN911.72;TN43
国家重点研发计划;国家自然科学基金;国家自然科学基金;国家自然科学基金;国家自然科学基金;国家自然科学基金;中国科学院战略性先导科技专项;北京智源人工智能研究院;中国科学院青年创新促进会项目;科学探索奖资助项目
2022-10-08(万方平台首次上网日期,不代表论文的发表时间)
共12页
696-707