10.3772/j.issn.1002-0470.2023.06.002
面向训练的卷积神经网络加速器设计
随着深度神经网络的广泛应用,对神经网络模型的训练速度需求也不断增长,各类面向训练的加速器应运而生.然而,在训练过程的各阶段,同一个层展现出了巨大的计算差异,计算差异性使得单一数据流结构的加速器在某些阶段的处理上达不到最高的效率.而图形处理器(GPU)等通用性设计通常不能充分地利用各阶段操作的特性使得利用率较低.为了解决这个问题,本文针对卷积神经网络(CNN)训练不同阶段的操作,分别提出了高效的执行方案,设计了一个统一的加速器处理单元硬件结构,能够将所有阶段的执行方案高效地映射到其上运行,并以这个统一的处理单元为基础实现了一个高效的支持训练的卷积神经网络加速器.实验结果显示,基于4 个常用的卷积神经网络模型,卷积层训练的前向过程、反向过程的运算资源利用率分别达到了77.6%、67.3%,相比于现有主流的利用Tensor核心加速深度学习任务的GPU,运算资源利用率提高了45.1%和41.7%.
神经网络、训练、加速器、卷积神经网络(CNN)
33
TP391.41;F426.23;TP273.5
中国科学院战略性先导科技专项XDC05020100
2023-08-03(万方平台首次上网日期,不代表论文的发表时间)
共13页
568-580