期刊专题

10.3778/j.issn.1002-8331.2211-0397

结合Bert与超图卷积网络的文本分类模型

引用
现有的图神经网络在处理文本分类问题时,通常将文本转化为图结构,然后利用图神经网络进行学习表示,从而分类.但基于图神经网络的方法存在两点不足,一是图结构利用二元关系对单词联系进行表示,缺乏对文本高阶关系的捕获;二是图神经网络类模型难以捕获文本中丰富的语义关联.针对以上问题,提出了一种采用注意力机制将Bert与超图卷积网络结合的文本分类模型.通过Bert模型获得文本中的局部语义信息,通过构建文本超图获得单词间更广泛的文本关联信息,并经过超图卷积网络的学习表示得到文本全局结构特征,利用注意力机制对两种特征进行交互影响,获得更全面更充分的文本表示.在4个公开数据集上进行的多次实验表明,该模型与基线模型相比有更好的分类效果.

文本分类、Bert、超图、神经网络

59

TP391(计算技术、计算机技术)

国家重点研发计划;国家自然科学基金

2023-09-18(万方平台首次上网日期,不代表论文的发表时间)

共9页

107-115

暂无封面信息
查看本期封面目录

计算机工程与应用

1002-8331

11-2127/TP

59

2023,59(17)

专业内容知识聚合服务平台

国家重点研发计划“现代服务业共性关键技术研发及应用示范”重点专项“4.8专业内容知识聚合服务技术研发与创新服务示范”

国家重点研发计划资助 课题编号:2019YFB1406304
National Key R&D Program of China Grant No. 2019YFB1406304

©天津万方数据有限公司 津ICP备20003920号-1

信息网络传播视听节目许可证 许可证号:0108284

网络出版服务许可证:(总)网出证(京)字096号

违法和不良信息举报电话:4000115888    举报邮箱:problem@wanfangdata.com.cn

举报专区:https://www.12377.cn/

客服邮箱:op@wanfangdata.com.cn