- 48小时新闻排行
- 7天新闻排行
谷歌旗下的人工智能公司DeepMind又取得突破。继AlphaGo赢了人类棋手后,他们又研制出了能够生成模仿人类语音的系统,该系统让机器说话与人类说话之间的差距缩小了50%。DeepMind将这个系统命名为Wavenet。 让人能与机器对话一直是人类希望在人工智能领域里实现的目标。但是,目前用计算机生成语音仍然大量地依赖于TTS(文本到语音)拼接技术。在这个过程中,机器首先要记录一个说话人的声音片段,并基于此构建超大型的数据库,随后,经过再次结合过程,形成完整的表达。这样一来,在不记录一个完整的新数据库的情况下,要修饰声音就会变得很困难(比如,转化到不同的说话者,或者转化语音中的情感和语气)。 WaveNet改变了这种旧范式,它直接对原始声音信号的声浪建模,每次对一个样本进行建模。和生成更加自然的语音一样,使用原始的声波意味着WaveNet能对任何音频建模,其中包括音乐。 WaveNet使用的是全卷积神经网络,当中的卷积层有多个扩张因素,允许它的接收域在深度上呈指数级的增长,覆盖数千个时间步长。 研究人员称WaveNet能知道自己说的是什么。首先,研究人员通过把文本转化成一个语言与声学特征序列(这个序列包含了当下的声音、字母、词汇等),然后把这一序列喂到WaveNet中,从而能让模型了解到自己要说什么。 同时,研究人员还指出,如果在没有文本序列的情况下训练这一网络,它仍然能生成语音,但是这样的话它需要辨别要说的是什么。测试结果显示,这样一来,WaveNet结果有点像在说胡话,其中真实的单词被类似发音的声音打乱了。 此外,WaveNets在有些时间还可以生成例如呼吸和嘴部运动这样的非语言声音,这也反映了一个原始的音频模型所拥有的更大的自由度。 2015年被谷歌收购后,DeepMind就获得了使用谷歌数据的权利,这对于他们训练自己的系统意义重大。这次训练WaveNet的数据用的就是谷歌TTS数据库。DeepMind还让系统与谷歌现在最好的TTS系统(参数的和合成的)以及与人类使用MOS进行了对比。对比结果显示,WaveNet降低了人类表现与机器表现之间的差异,在英语和中文上都将差距缩小了50%以上。 训练结束后,研究人员可以把网络数据作为样本,产生合成的表达,进行取样,然后用到下一个步骤的预测中。这样按部就班地建立样品计算成本高昂,但研究人员称,在生成复杂的、逼真的音频上,这至关重要。 彭博社称,目前谷歌还没有推出关于WaveNets的任何商业应用,因为它需要巨大的计算能力,训练的音频信号达到每秒16000次以上。 但许多高科技公司可能会密切关注DeepMind的突破。因为语音正成为人类和机器互动中越来越重要的手段。亚马逊、苹果、微软和谷歌都在投资能让用户通过语音进行交互的个人数字助理。谷歌播放的国际总监马克·贝内特称,使用谷歌移动搜索中,有20%是由声音,而不是书面文字完成的。 谷歌同样没有对外界透露DeepMind的研究会给自己带来哪些商业上的帮助。但在今年,谷歌曾对外表示已经使用了DeepMind40%的技术,其中包括帮助减少数据中心的电力需求。以及将DeepMind的技术用到YouTube和谷歌播放的广告产品服务上。
|
关注获得及时、准确、全方位的新闻消息