期刊专题

10.3772/j.issn.1002-0470.2023.08.005

基于层间融合的神经网络访存密集型层加速

引用
近年来,随着深度神经网络在各领域的广泛应用,针对不同的应用场景,都需要对神经网络模型进行训练以获得更优的参数,于是对训练速度的需求不断提升.然而,现有的研究通常只关注了计算密集型层的加速,忽略了访存密集型层的加速.访存密集型层的操作主要由访存带宽决定执行效率,单独提升运算速度对性能影响不大.本文从执行顺序的角度出发,提出了将访存密集型层与其前后的计算密集型层融合为一个新层执行的方式,将访存密集型层的操作作为对融合新层中输入数据的前处理或输出数据的后处理进行,大幅减少了访存密集型层在训练过程中对片外内存的访问,提升了性能;并针对该融合执行方案,设计实现了一个面向训练的加速器,采用了暂存前处理结果、后处理操作与计算密集型层操作并行执行的优化策略,进一步提升了融合新层的训练性能.实验结果显示,在面积增加6.4%、功耗增加10.3%的开销下,训练的前向阶段、反向阶段的性能分别实现了 67.7%、77.6%的提升.

神经网络、训练、加速器、卷积神经网络(CNN)、访存密集型层、批归一化(BN)层

33

TP391;TN915.04;TP183

中国科学院战略性先导科技专项XDC05020100

2023-11-06(万方平台首次上网日期,不代表论文的发表时间)

共13页

823-835

相关文献
评论
暂无封面信息
查看本期封面目录

高技术通讯

1002-0470

11-2770/N

33

2023,33(8)

相关作者
相关机构

专业内容知识聚合服务平台

国家重点研发计划“现代服务业共性关键技术研发及应用示范”重点专项“4.8专业内容知识聚合服务技术研发与创新服务示范”

国家重点研发计划资助 课题编号:2019YFB1406304
National Key R&D Program of China Grant No. 2019YFB1406304

©天津万方数据有限公司 津ICP备20003920号-1

信息网络传播视听节目许可证 许可证号:0108284

网络出版服务许可证:(总)网出证(京)字096号

违法和不良信息举报电话:4000115888    举报邮箱:problem@wanfangdata.com.cn

举报专区:https://www.12377.cn/

客服邮箱:op@wanfangdata.com.cn