10.3969/j.issn.1006-2475.2019.06.020
结合全卷积网络的无监督视频目标分割
对视频中的目标进行像素级分割是计算机视觉领域的研究热点,完全没有用户标注的无监督视频分割对分割算法提出了更高的要求.近几年在分割中常使用基于帧间运动信息进行建模的方法,即用光流等运动信息预测目标轮廓,再结合颜色等特征建立模型进行分割.针对这些方法产生的前景背景混淆以及边缘粗糙等问题,本文提出结合全卷积网络的视频目标分割方法.首先通过全卷积网络预测视频序列中显著目标的轮廓,结合光流获得的运动显著性标签进行修正,然后建立时间-空间图模型,运用图割的方法获得最终的预测标签.在SegTrack v2以及DAVIS这2个通用数据集上进行评估,结果表明本文方法较基于帧间运动信息的方法在分割效果上有明显的提高.
视频分割、目标分割、深度特征、无监督、全卷积网络
TP391.41(计算技术、计算机技术)
国家自然科学基金资助项目61379106,61379082,61227802;山东省自然科学基金资助项目ZR2013FM036, ZR2015FM011
2019-06-19(万方平台首次上网日期,不代表论文的发表时间)
共5页
116-120