期刊专题

10.3979/j.issn.1673-825X.202109130327

基于改进Transformer的生成式文本摘要模型

引用
基于循环神经网络(recurrent neural network,RNN)注意力机制的序列到序列模型在摘要信息提取服务中已经取得了较好的应用,但RNN不能较好地捕捉长时序信息,这使现有模型受限.为此,提出了基于改进Transformer的生成式文本摘要模型.该模型利用Transformer提取全局语义,使用局部卷积提取器提取原文细粒度特征,并设计全局门控单元以防止信息冗余和弥补语义不足,筛选出利于摘要生成的文本关键信息.实验结果表明,所提模型在大规模中文短文本摘要数据集(large scale Chinese short text summarization,LCSTS)上的效果有明显的提升,在电力运维摘要数据集上,也有良好效果,具有可扩展性.

生成式摘要、序列到序列、改进Transformer、局部卷积

35

TP391.1(计算技术、计算机技术)

国家自然科学基金;国家重点研发计划;国家重点研发计划

2023-03-06(万方平台首次上网日期,不代表论文的发表时间)

共8页

185-192

暂无封面信息
查看本期封面目录

重庆邮电大学学报(自然科学版)

1673-825X

50-1181/N

35

2023,35(1)

专业内容知识聚合服务平台

国家重点研发计划“现代服务业共性关键技术研发及应用示范”重点专项“4.8专业内容知识聚合服务技术研发与创新服务示范”

国家重点研发计划资助 课题编号:2019YFB1406304
National Key R&D Program of China Grant No. 2019YFB1406304

©天津万方数据有限公司 津ICP备20003920号-1

信息网络传播视听节目许可证 许可证号:0108284

网络出版服务许可证:(总)网出证(京)字096号

违法和不良信息举报电话:4000115888    举报邮箱:problem@wanfangdata.com.cn

举报专区:https://www.12377.cn/

客服邮箱:op@wanfangdata.com.cn