多模型融合的多标签图像自动标注
为了实现更为准确的复杂语义内容图像理解,提出一种融合多模型的多标签图像自动标注方法.该方法采用3个不同的模型分别对图像语义内容进行分析:在前景语义概念检测中,提出一种基于多特征的视觉显著性分析方法,并利用多Nystr(o)m近似核对前景对象的语义进行判别分析;对于背景概念检测,提出一种区域语义分析的方法;通过构造基于潜语义分析的语义相关矩阵来消除标注错误的标签.根据前景和背景的语义和视觉特征,分别采用不同的模型提取前景和背景标注词,而语义相关分析能够有效地提高标注的准确性.实验结果表明,该多模型融合标注方法在图像的深层语义分析以及多标签标注方面具有较好的效果;与同类算法相比,能够有效地减少错误标注的标签数目,得到更加准确的标注结果.
图像标注、多模型、MNKDA、区域语义分析、语义相关分析
26
TP391(计算技术、计算机技术)
国家自然科学基金61370174;上海市自然科学基金11ZR1409600;浙江大学CAD&CG国家重点实验室开放课题A1213
2014-04-02(万方平台首次上网日期,不代表论文的发表时间)
共7页
472-478