没有找到合适的产品?
联系客服协助选型:023-68661681
提供3000多款全球软件/控件产品
针对软件研发的各个阶段提供专业培训与技术咨询
根据客户需求提供定制化的软件开发服务
全球知名设计软件,显著提升设计质量
打造以经营为中心,实现生产过程透明化管理
帮助企业合理产能分配,提高资源利用率
快速打造数字化生产线,实现全流程追溯
生产过程精准追溯,满足企业合规要求
以六西格玛为理论基础,实现产品质量全数字化管理
通过大屏电子看板,实现车间透明化管理
对设备进行全生命周期管理,提高设备综合利用率
实现设备数据的实时采集与监控
利用数字化技术提升油气勘探的效率和成功率
钻井计划优化、实时监控和风险评估
提供业务洞察与决策支持实现数据驱动决策
转帖|实施案例|编辑:龚雪|2017-03-29 17:38:20.000|阅读 1070 次
概述:如果你是语音合成的新手,那这篇文章教你快速理解百度的语音合成原理!
# 界面/图表报表/文档/IDE等千款热门软控件火热销售中 >>
现在我们继续上文的操作
步骤1:将语素(文本)转换为音素
“It was early spring” -> [IH1, T, ., W, AA1, Z, ., ER1, L, IY0, ., S, P, R, IH1, NG, .]
步骤2:预测每个音素的持续时间和基频
[IH1, T, ., W, AA1, Z, ., ER1, L, IY0, ., S, P, R, IH1, NG, .] -> [IH1 (140hz, 0.5s), T (142hz, 0.1s), . (Not voiced, 0.2s), W (140hz, 0.3s),…]
步骤3:将音素,持续时间和基频结合从而输出文本对应的语音
[IH1 (140hz, 0.5s), T (142hz, 0.1s), . (Not voiced, 0.2s), W (140hz, 0.3s),…] -> 音频
那么,我们实际通过什么样的方式来训练这些步骤的模型,从而得到可靠的预测结果呢?
下面,我们将逐个讲解训练流程中的每个环节。
步骤一:训练语素—音素模型
语音合成的第一步就是使用语素—音素转换模型将文本转换成音素。
上一篇文章中我们就介绍了这个例子:
Input — “It was early spring” Output — [IH1, T, ., W, AA1, Z, ., ER1, L, IY0, ., S, P, R, IH1, NG, .]
在大多数情况下,我们可以使用音素字典直接将文本输入,并得到如上对应的音素结果。
但如果出现音素字典没有覆盖的词呢?这其实时常发生,就跟我们人类经常会增加新的词汇一样(比如,“谷歌”,“截屏”等等的)。那么,在遇到新词的时候,我们便需要一个回退机制来预测音素了。
Deep Voice使用神经网络来实现这个功能。准确来讲,它沿用过了Yao和Zweig在微软进行的Sequence to Sequence(Seq2Seq)的学习方法来进行文本对应的音素预测。
与其将这个原理用我自己的语言剖析深入,还是附上我觉得解释得比较好的视频和文章给大家来理解()。
那么,基于上述原理,训练使用的数据和标签是什么样子的呢?
Input(X-逐字的)
[“It”, “was”, “early”, “spring”]
标签(Y)
[[IH1, T, .], [W, AA1, Z, .], [ER1, L, IY0, .], [S, P, R, IH1, NG, .]]
通过查询标准音素字典(比如CMU这个,链接),我们可以得到与输入文本一一对应的标签。
步骤二:运行分割模型
在上一篇中,我们讲过,在语音合成的时候我们需要预测音素的持续时间和基频。而通过音素的音频剪辑,我们可以轻易地获取这两个数据。
Deep Voice运用了分割模型来获取每个音素的音频剪辑。
分割模型将每个音素发声的场景进行匹配,从而获取其对应的音频分割片段和其在音频中的发声位置。
如下图所示:
分割模型预测了音素在一组音频剪辑中的发声位置和时长
分割模型真正有趣的部分在于其预测的不是每个独立音素的位置,而实际是预测了每组音素对的位置。此外,这种模式是无监督的,因为我们事实上无法知道语音片段中语素对应的真正位置的标签信息。分割模型通过CTC loss模型来训练,你可以通过链接,深入了解它的原理。
Input(X)
Outputs(Y)
为什么要去预测音素对而不是独立的每个音素呢?因为当我们对给定时间戳对应的某个音素进行预测时,在该音素发声的中间位置预测的概率是最大的。
对独立单个的音素而言,给定语音对应某个音素的概率在语音的发声正中最大;而对成对的音素而言,概率最大值出现在两个音素交界点上
对成对的音素来说,概率最大值出现在两个音素交界点上(见上图)。我们可以轻易的检测出两个音素发声的交界点,因此,使用音素对可以让我们更简单地进行定位。
步骤三:训练音素的持续时间和基频的预测模型
在语音合成步骤中,我们需要对音素的持续时间和基频进行预测。
根据步骤二,我们已经从分割模型中拿到了音素的持续时间和基频,现在我们可以通过模型训练来预测新音素的数据了。
分割模型输出是持续时间模型和基频率模型的标签
Deep Voice通过一组单一共同训练的模型输出这些数据。
Input(X)
标签(Y)
有了这些数据,我们就可以进行时间和Fo函数预测了。
步骤四:训练语音合成
最后,我们需要对语音合成流程中的实际生成语音的步骤进行训练。与Deep Mind中的WaveNet非常相似,这个模型具有如下的架构:
我们将会把真实的语音剪辑作为标签来进行训练
Input(X)
标签(Y)
这样,我们就将语音合成的各个步骤过了一遍,由此便可以进行语音合成了
恭喜你!读到这里,你已经知晓了Deep Voice生成语音的过程了,多加练习,你也能成为生成语音的大咖!
更多行业资讯,更新鲜的技术动态,尽在。
本站文章除注明转载外,均为本站原创或翻译。欢迎任何形式的转载,但请务必注明出处、不得修改原文相关链接,如果存在内容上的异议请邮件反馈至chenjj@dpuzeg.cn
随着工业领域数字化进程的持续加快,Web 技术在实现实时监控、数据可视化与控制系统等方面正扮演着越来越核心的角色。来自智利的科技企业 Wise Data Global 借 DHTMLX Suite JavaScript UI 控件库,为遥测、远程监控与工业物联网(IIoT)场景提供了稳定高效的 Web 端平台支持。
在当今教育数字化加速发展的背景下,高校对在线协作办公工具的需求日益增长。作为瑞士领先的高等学府之一,苏黎世大学(University of Zurich)在其学习管理平台 OLAT 中成功集成了 ONLYOFFICE Docs,极大地提升了教学与学习过程中的文档协作效率与用户体验。
在全球范围内,越来越多的企业开始重视项目与业务流程的数字化管理。波兰创新型软件公司 Enovatio,便通过其旗舰产品 Enovatio Portal,为广大中大型组织提供了一体化的项目与流程管理解决方案。该平台集成了 DHTMLX Gantt 和 DHTMLX Diagram 两款专业前端控件,实现了高效的项目进度管控与流程可视化能力。
ClearPoint 的团队早期采用了开源解决方案构建甘特图组件,但随着用户需求不断升级,系统稳定性、交互灵活性和功能完备性成为制约发展的瓶颈。在深入对比多家前端甘特图组件后,ClearPoint 最终选择 DHTMLX Gantt。
服务电话
重庆/ 023-68661681
华东/ 13452821722
华南/ 18100878085
华北/ 17347785263
客户支持
技术支持咨询服务
服务热线:400-700-1020
邮箱:sales@dpuzeg.cn
关注我们
地址 : 重庆市九龙坡区火炬大道69号6幢