10.3969/j.issn.1002-0640.2022.03.003
基于DFCNN-CTC和Transformer的中文语音识别
语音识别一般只是将语音转化成文字,识别的结果是没有标点的一连串汉字,这不利于读者阅读,也会影响后续任务的处理.因此,引入语音端点检测解决上述问题.同时针对传统的语言模型N-gram存在忽略字词之间语义的相似性、训练时的参数过大等问题,提出一种以全序列卷积神经网络DFCNN作为声学模型,Transformer作为语言模型的语音识别系统.在Thchs30、ST-CMDS数据集上的实验表明,相较于DFCNN结合3-gram模型,该系统在最优模型上达到了12.8%的字符错误率,相对下降了6.9%.
语音识别、语音端点检测、DFCNN、Transformer
47
TN912.3
国家自然科学基金62162060
2022-04-28(万方平台首次上网日期,不代表论文的发表时间)
共6页
16-21