基于BERT-GRU-ATT模型的中文实体关系分类
实体关系分类作为自然语言处理的基础任务,对知识图谱、智能问答、语义网构建等任务都起到了非常关键的作用.文中构建了 BERT-GRU-ATT模型,以进行中文实体关系分类.为消除中文分词歧义对实体关系分类的影响,引入预训练模型BERT作为嵌入层,以较好地获得汉字的上下文信息;再通过双向门控循环单元捕获实体在句子中的长距离依赖,通过自注意力机制加强对关系分类贡献明显的字的权重,从而获得较好的实体关系分类结果.为了丰富中文实体关系分类语料,将Se-mEval2010_Task8英文实体关系评测语料翻译为中文1),该模型在此翻译语料上取得了 75.46%的F1值,说明了所提模型的有效性.此外,所提模型在SemEval2010-task8英文数据集上F1值达到了 80.55%,证明该模型对英文语料具有一定的泛化能力.
中文实体关系分类、预训练模型、门控循环单元、自注意力机制
49
TP391(计算技术、计算机技术)
国家科技创新新一代人工智能重大项目;国家自然科学基金;国家自然科学基金;辽宁省教育厅科学研究经费
2022-06-24(万方平台首次上网日期,不代表论文的发表时间)
共7页
319-325