10.3969/j.issn.1003-9767.2022.05.016
基于BERT的关系抽取方法研究
基于转换器的双向编码表征(Bidirectional Encoder Representation from Transformers,BERT)是由谷歌在2018发布的预训练模型,该模型在11项NLP任务中取得了最优的结果.基于此,笔者提出了基于BERT的关系抽取模型,将头节点和尾节点的先验知识融合到BERT模型中,并采用SemEval公开数据集进行实验.实验结果表明,此融合方法提高了原模型的召回率和F1值.
BERT、关系抽取、SemEval、信息抽取
34
TP391.1(计算技术、计算机技术)
武汉理工大学-西藏大学西藏经济社会发展与高原科学研究共建创新基金专项项目lzt2021008
2022-06-06(万方平台首次上网日期,不代表论文的发表时间)
共3页
53-55