10.3969/j.issn.1671-6906.2023.03.005
面向稀疏神经网络的软硬件协同加速方法研究
针对深度卷积神经网络在资源紧张、功耗敏感的边缘设备上部署难问题,基于现场可编程逻辑门阵列(Field-Programmable Gate Array,FPGA)提出了一种面向稀疏神经网络的软硬件协同加速方法.为减少模型参数对存储空间的占用,通过DropNet迭代剪枝和动态定点量化,对网络模型的参数量和数值精度进行了压缩处理.针对密集型计算的卷积操作,设计了矩阵分块和多位宽流水线并行策略,以充分挖掘并行计算潜力,提高数据复用率.采用二维池化分离策略,将池化过程分解为两个并行的一维池化操作,在规避大量冗余计算的同时显著减少了池化中间结果对寄存器的占用.在MNIST和Fashion MNIST两个数据集上进行的实验,证明了所提出方法的先进性.结果表明:在 100 MHz工作频率下,针对LeNet网络模型,所提出方法相较基于CPU的方法在单张图片测试上取得了约 35 倍的加速效果;针对SeNet网络模型,所提出方法相较基于CPU的方法在单张图片测试上取得了约 96倍的加速效果.
卷积神经网络、FPGA、剪枝、定点量化、硬件加速
34
TP391(计算技术、计算机技术)
2023-08-07(万方平台首次上网日期,不代表论文的发表时间)
共8页
27-34