期刊专题

10.3969/j.issn.1003-9767.2022.10.017

基于Transformer的自然语言处理预训练语言模型概述

引用
在自然语言处理领域,谷歌提出Transformer模型之后,以生成式预训练模型(Generative Pre-Training,GPT)和深度双向预训练语言模型(Bidirectional Encoder Representations from Transformers,BERT)等为代表的一些基于 Transformer 的预训练语言模型(Transformer-based Pre-trained Language Models,TPLM)相继被提出,在大部分自然语言处理任务上取得很好的效果.TPLM使用自监督学习方法学习来自大量文本数据的通用语言表示,并将这些知识转移到下游任务中,为其提供了背景知识,避免了重新开始训练新任务模型的情况.笔者主要研究了基于Transformer的预训练语言模型与基于TPLM的"预训练+微调"的自然语言处理预训练新技术模式.首先,介绍预训练模型的发展背景;其次,解释各种有关TPLM的核心概念,如预训练、预训练方法、预训练任务、自监督学习与迁移学习等;再次,简要介绍相关TPLM模型与目前的进展;最后,提出改进TPLM的方法并总结.

Transformer、自然语言处理、预训练模型

34

TP391.41;TP183(计算技术、计算机技术)

国家自然科学基金;国家自然科学基金;江苏省双创博士计划;苏州大学大学生课外学术科研基金项目

2022-08-11(万方平台首次上网日期,不代表论文的发表时间)

共5页

52-56

暂无封面信息
查看本期封面目录

信息与电脑

1003-9767

11-2697/TP

34

2022,34(10)

专业内容知识聚合服务平台

国家重点研发计划“现代服务业共性关键技术研发及应用示范”重点专项“4.8专业内容知识聚合服务技术研发与创新服务示范”

国家重点研发计划资助 课题编号:2019YFB1406304
National Key R&D Program of China Grant No. 2019YFB1406304

©天津万方数据有限公司 津ICP备20003920号-1

信息网络传播视听节目许可证 许可证号:0108284

网络出版服务许可证:(总)网出证(京)字096号

违法和不良信息举报电话:4000115888    举报邮箱:problem@wanfangdata.com.cn

举报专区:https://www.12377.cn/

客服邮箱:op@wanfangdata.com.cn