期刊专题

10.11896/jsjkx.210600123

基于BERT-GRU-ATT模型的中文实体关系分类

引用
实体关系分类作为自然语言处理的基础任务,对知识图谱、智能问答、语义网构建等任务都起到了非常关键的作用.文中构建了 BERT-GRU-ATT模型,以进行中文实体关系分类.为消除中文分词歧义对实体关系分类的影响,引入预训练模型BERT作为嵌入层,以较好地获得汉字的上下文信息;再通过双向门控循环单元捕获实体在句子中的长距离依赖,通过自注意力机制加强对关系分类贡献明显的字的权重,从而获得较好的实体关系分类结果.为了丰富中文实体关系分类语料,将Se-mEval2010_Task8英文实体关系评测语料翻译为中文1),该模型在此翻译语料上取得了 75.46%的F1值,说明了所提模型的有效性.此外,所提模型在SemEval2010-task8英文数据集上F1值达到了 80.55%,证明该模型对英文语料具有一定的泛化能力.

中文实体关系分类、预训练模型、门控循环单元、自注意力机制

49

TP391(计算技术、计算机技术)

国家科技创新新一代人工智能重大项目;国家自然科学基金;国家自然科学基金;辽宁省教育厅科学研究经费

2022-06-24(万方平台首次上网日期,不代表论文的发表时间)

共7页

319-325

暂无封面信息
查看本期封面目录

计算机科学

1002-137X

50-1075/TP

49

2022,49(6)

专业内容知识聚合服务平台

国家重点研发计划“现代服务业共性关键技术研发及应用示范”重点专项“4.8专业内容知识聚合服务技术研发与创新服务示范”

国家重点研发计划资助 课题编号:2019YFB1406304
National Key R&D Program of China Grant No. 2019YFB1406304

©天津万方数据有限公司 津ICP备20003920号-1

信息网络传播视听节目许可证 许可证号:0108284

网络出版服务许可证:(总)网出证(京)字096号

违法和不良信息举报电话:4000115888    举报邮箱:problem@wanfangdata.com.cn

举报专区:https://www.12377.cn/

客服邮箱:op@wanfangdata.com.cn