期刊专题

10.11896/jsjkx.200200003

一种基于对数位置表示和自注意力的机器翻译新模型

引用
在机器翻译任务中,自注意力机制由于高度可并行化的计算能力而减少了模型的训练时间,并且可以有效地捕捉到上下文中所有单词之间的语义相关度而受到了广泛的关注.然而,不同于循环神经网络,自注意力机制的高效源于忽略上下文单词之间的位置结构信息.为了使模型能够利用单词之间的位置信息,基于自注意力机制的机器翻译模型Transformer使用正余弦位置编码方式表示单词的绝对位置信息,然而,这种方法虽然能够反应出相对距离,但却缺乏方向性.文中将对数位置表示方法与自注意力机制相结合,提出一种机器翻译新模型.该模型不仅继承了自注意力机制的高效性,还可以保留单词之间的距离信息与方向性信息.研究表明,与传统的自注意力机制模型以及其它模型相比,文中所提新模型能够显著地提高机器翻译的准确性.

机器翻译、自注意力、位置信息、位置编码、对数位置表示

47

TP181(自动化基础理论)

国家自然科学基金;江苏高校哲学社会科学研究重点项目

2020-12-03(万方平台首次上网日期,不代表论文的发表时间)

共6页

86-91

暂无封面信息
查看本期封面目录

计算机科学

1002-137X

50-1075/TP

47

2020,47(z2)

专业内容知识聚合服务平台

国家重点研发计划“现代服务业共性关键技术研发及应用示范”重点专项“4.8专业内容知识聚合服务技术研发与创新服务示范”

国家重点研发计划资助 课题编号:2019YFB1406304
National Key R&D Program of China Grant No. 2019YFB1406304

©天津万方数据有限公司 津ICP备20003920号-1

信息网络传播视听节目许可证 许可证号:0108284

网络出版服务许可证:(总)网出证(京)字096号

违法和不良信息举报电话:4000115888    举报邮箱:problem@wanfangdata.com.cn

举报专区:https://www.12377.cn/

客服邮箱:op@wanfangdata.com.cn