期刊专题

10.11925/infotech.2096-3467.2022.0825

面向任务型对话的小样本语言理解模型研究

引用
[目的]在没有充足标注数据支持模型学习的情况下将对话语言理解任务应用到领域更新频繁的对话系统中.[方法]提出基于信息增强的小样本对话语言理解联合模型(IAM-FSLU),利用小样本学习很好地解决了在新领域和跨领域下的意图种类及数量不同时,数据匮乏和模型适用性差的问题,同时构建了一种更有效的小样本意图识别和小样本槽位提取两个任务间的显式关系.[结果]联合建模与未联合建模模型相比,在1-shot设置下,槽位提取F1分数获得近30个百分点的提升,句准确率有近10个百分点的提升;在3-shot设置下,槽位提取F1分数获得近35个百分点的提升,句准确率有12~16个百分点的提升.[局限]从结果来看,IAM-FSLU在意图识别子任务上仍需要进一步提高性能,同时与隐式关系建模的模型相比,虽然在槽位提取任务上有很大提升,但句准确率提升效果有限.[结论]通过不同的小样本设置的对比实验验证IAM-FSLU的效果,结果表明IAM-FSLU整体效果均优于其他主流模型.

深度学习、对话系统、意图识别、对话语言理解、联合建模

7

TP391(计算技术、计算机技术)

2023-11-10(万方平台首次上网日期,不代表论文的发表时间)

共14页

64-77

暂无封面信息
查看本期封面目录

数据分析与知识发现

2096-3467

10-1478/G2

7

2023,7(9)

专业内容知识聚合服务平台

国家重点研发计划“现代服务业共性关键技术研发及应用示范”重点专项“4.8专业内容知识聚合服务技术研发与创新服务示范”

国家重点研发计划资助 课题编号:2019YFB1406304
National Key R&D Program of China Grant No. 2019YFB1406304

©天津万方数据有限公司 津ICP备20003920号-1

信息网络传播视听节目许可证 许可证号:0108284

网络出版服务许可证:(总)网出证(京)字096号

违法和不良信息举报电话:4000115888    举报邮箱:problem@wanfangdata.com.cn

举报专区:https://www.12377.cn/

客服邮箱:op@wanfangdata.com.cn