期刊专题

10.3724/SP.J.1016.2010.00279

神经网络极速学习方法研究

引用
单隐藏层前馈神经网络(Single-hidden Layer Feedforward Neural Network,SLFN)已经在模式识别、自动控制及数据挖掘等领域取得了广泛的应用,但传统学习方法的速度远远不能满足实际的需要,成为制约其发展的主要瓶颈.产生这种情况的两个主要原因是:(1)传统的误差反向传播方法(Back Propagation,BP)主要基于梯度下降的思想,需要多次迭代;(2)网络的所有参数都需要在训练过程中迭代确定.因此算法的计算量和搜索空间很大.针对以上问题,借鉴ELM的一次学习思想并基于结构风险最小化理论提出一种快速学习方法(RELM),避免了多次迭代和局部最小值,具有良好的泛化性、鲁棒性与可控性.实验表明RELM综合性能优于ELM、BP和SVM.

极速学习机、正则极速学习机、支持向量机、结构风险、神经网络、最小二乘

33

TP18(自动化基础理论)

国家自然科学基金60825202,60803079,60633020;国家"八六三"高技术研究发展计划项目基金2008AA01Z131;国家科技支撑计划项目2006BAK11B02,2006BAJ07B06,2008BAH26B02,2009BAH51B00;中国科学院复杂系统与智能研究科学重点实验室开放基金资助项目20080101;陕西省教育厅科学研究计划项目09JK717

2010-04-21(万方平台首次上网日期,不代表论文的发表时间)

共9页

279-287

相关文献
评论
暂无封面信息
查看本期封面目录

计算机学报

0254-4164

11-1826/TP

33

2010,33(2)

相关作者
相关机构

专业内容知识聚合服务平台

国家重点研发计划“现代服务业共性关键技术研发及应用示范”重点专项“4.8专业内容知识聚合服务技术研发与创新服务示范”

国家重点研发计划资助 课题编号:2019YFB1406304
National Key R&D Program of China Grant No. 2019YFB1406304

©天津万方数据有限公司 津ICP备20003920号-1

信息网络传播视听节目许可证 许可证号:0108284

网络出版服务许可证:(总)网出证(京)字096号

违法和不良信息举报电话:4000115888    举报邮箱:problem@wanfangdata.com.cn

举报专区:https://www.12377.cn/

客服邮箱:op@wanfangdata.com.cn