10.3969/j.issn.1003-9767.2024.06.014
基于Adam自适应学习率的神经网络训练方法
文章针对深度神经网络训练中的学习率调整问题,通过引入正则化项来优化Adam算法,以提高卷积神经网络的训练效果.在CIFAR-10数据集上的实验表明,基于正则化机制的Adam改进算法相较于传统的Adam优化算法缩短了训练时间,提高了测试和验证准确率,并降低了训练损失,表现出更好的泛化能力.
神经网络、Adam优化算法、正则化、学习率
36
TP183(自动化基础理论)
2024-06-11(万方平台首次上网日期,不代表论文的发表时间)
共3页
44-46