期刊专题

10.3969/j.issn.1003-9767.2021.10.004

通过抑制采样概率提升文本生成质量的方法

引用
近年来,随着变压器编码解码器架构的优化以及越来越大规模的无监督文本数据训练,GPT2等预训练语言模型的能力越来越强大,已逐渐在自然语言处理各领城里大显身手.使用预训练语言模型并通过自回归预测下一Token的方式即可连续生成文本,其所生成的语句在通顺性和多样性上表现较好.但其预测下一Token的方式本质上只是在已知上文所确定的概率分布下的较大概率采样,若不加一定控制,生成文本很容易陷入循环重复,甚至出现前后矛盾、事实错误等"幻觉"现象.笔者在解码算法中使用了一种抑制特定Token采样概率的方法并取得了不错的效果,在给定开头句进行开放式文本续写的任务上可以生成出更高质量、更通顺且语句更长的文本段落.该方法适用于各种生成式预训练语言模型,不需要额外训练或精调,仅针对性地配置一些抑制Token集合,便可有效提高文本续写的质量,是一种实现简单且计算成本较低的实用方法,已成功应用于笔者参与的多个项目.

生成模型;自回归文本生成;概率抑制

33

TP391(计算技术、计算机技术)

2021-09-22(万方平台首次上网日期,不代表论文的发表时间)

共4页

12-15

暂无封面信息
查看本期封面目录

信息与电脑

1003-9767

11-2697/TP

33

2021,33(10)

专业内容知识聚合服务平台

国家重点研发计划“现代服务业共性关键技术研发及应用示范”重点专项“4.8专业内容知识聚合服务技术研发与创新服务示范”

国家重点研发计划资助 课题编号:2019YFB1406304
National Key R&D Program of China Grant No. 2019YFB1406304

©天津万方数据有限公司 津ICP备20003920号-1

信息网络传播视听节目许可证 许可证号:0108284

网络出版服务许可证:(总)网出证(京)字096号

违法和不良信息举报电话:4000115888    举报邮箱:problem@wanfangdata.com.cn

举报专区:https://www.12377.cn/

客服邮箱:op@wanfangdata.com.cn