会议专题

文本驱动虚拟人多模式行为合成

本文首次提出并实现一种文本驱动虚拟人多模式行为合成系统,系统在播放合成语音同时,还伴随有唇动,面部行为以及身体手势动作等.在多模式合成系统中,各模式之间协同是至关重要的,本文由此提出基于语音韵律与手语时长融合的协同韵律模型,用于多模式数据之间的协同控制中.通过文本分析,利用文语转换的韵律信息调整手语合成中的时间信息从而得到协同合成的韵律,利用协同韵律实现身体动作与语音输出的协同,极大提高了多模式语音合成系统的真实感和自然度.

文本驱动 虚拟人 多模式行 语音输出

陈益强 高文 王兆其 杨长水 姜大龙

中科院计算技术研究所,北京,100080 中科院计算技术研究所,北京,100080;哈尔滨工业大学计算机系,哈尔滨,150001

国内会议

中国科学院计算技术研究所第七届计算机科学与技术研究生学术讨论会

四川广元

中文

411-416

2002-07-13(万方平台首次上网日期,不代表论文的发表时间)