一种训练支撑向量机的改进贯序最小优化算法
对于大规模问题,分解方法是训练支撑向量机主要的一类方法.在很多分类问题中,有相当比例的支撑向量对应的拉格朗日乘子达到惩罚上界,而且在训练过程中到达上界的拉格朗日乘子变化平稳.利用这一统计特性,提出了一种有效的缓存策略来加速这类分解方法,并将其具体应用于Platt的贯序最小优化(sequential minimization optimization,简称SMO) 算法中.实验结果表明,改进后的SMO算法的速度是原有算法训练的2~3倍.
支撑向量机、模式分类、二次规划、缓存策略、贯序最小优化算法
13
TP181(自动化基础理论)
国家自然科学基金60175006,60024301;国家创新研究群体科学基金60024301
2004-01-08(万方平台首次上网日期,不代表论文的发表时间)
共7页
2007-2013