10.11925/infotech.2096-3467.2022.0825
面向任务型对话的小样本语言理解模型研究
[目的]在没有充足标注数据支持模型学习的情况下将对话语言理解任务应用到领域更新频繁的对话系统中.[方法]提出基于信息增强的小样本对话语言理解联合模型(IAM-FSLU),利用小样本学习很好地解决了在新领域和跨领域下的意图种类及数量不同时,数据匮乏和模型适用性差的问题,同时构建了一种更有效的小样本意图识别和小样本槽位提取两个任务间的显式关系.[结果]联合建模与未联合建模模型相比,在1-shot设置下,槽位提取F1分数获得近30个百分点的提升,句准确率有近10个百分点的提升;在3-shot设置下,槽位提取F1分数获得近35个百分点的提升,句准确率有12~16个百分点的提升.[局限]从结果来看,IAM-FSLU在意图识别子任务上仍需要进一步提高性能,同时与隐式关系建模的模型相比,虽然在槽位提取任务上有很大提升,但句准确率提升效果有限.[结论]通过不同的小样本设置的对比实验验证IAM-FSLU的效果,结果表明IAM-FSLU整体效果均优于其他主流模型.
深度学习、对话系统、意图识别、对话语言理解、联合建模
7
TP391(计算技术、计算机技术)
2023-11-10(万方平台首次上网日期,不代表论文的发表时间)
共14页
64-77