基于分组的次数与规则剪枝相结合的语言模型压缩方法研究
由于庞大的训练语料,统计语言模型的大小往往会超出手持设备的存储能力.随着现阶段资源受限设备的迅速发展,语言模型的压缩研究也就显得更加重要.本文提出了一个语言模型压缩方法,即将次数剪切与规则剪枝方法相结合,并使用分组的方法保证在不减少单元数目的情况下压缩模型.文章对使用新的算法得到的语言模型与次数剪切和规则剪枝方法分别进行困惑度比较.实验结果表明,使用新方法得到的语言模型性能更好。
语言压缩 次数剪切 规则剪枝 语言模型 压缩模型
吴晓春 吴娴 李培峰 朱巧明
苏州大学计算机科学与技术学院,江苏,苏州,215006
国内会议
西安
中文
129-133
2008-09-19(万方平台首次上网日期,不代表论文的发表时间)