zoukankan      html  css  js  c++  java
  • Tacotron2论文阅读笔记

    Tacotron2

    NATURAL TTS SYNTHESIS BY CONDITIONING WAVENET ON MEL SPECTROGRAM PREDICTIONS论文阅读笔记

    先推荐一篇比较好的翻译,但不完整机器之心Tacotron2

    简介

    1. 历史回顾:

      • 前期方法:级联合成 、统计参量
      • 特点:低沉不自然
      • 方法:Wavenet 时域波形生成模型
      • 特点:音质提高但是输入繁杂
    2. Tacotron2

      • seq2seq 从字符序列到soectrograms,简化了语言声学特征产生的步骤

      • vocoder : tacotron1–使用短时傅立叶逆变换 < wavenet

      • 对比其余网络: Deep Voice3–主观评估低 Char2Wav–使用传统的中间表示形式

    模型简介

    • 系统组件:

      1. ​ 注意力机制循环序列到序列特征预测network – 从字符序列预测mel谱图
      2. ​ Wavenet优化版本 – 基于mel谱图生成时域波形样本
    • 中间特征代表选择

      1. mel蘋谱图:在较低的频率中强调细节;使用低频率细节,不强调摩擦音和噪声突发所站主导地位的高频细节。
      2. 选择原因:线性频谱图会丢失相位信息,griffinlim(tacotron1)可以估计该丢弃信息,并且进行短时傅立叶逆变换进行时域转换;mel频谱图会丢弃更多信息,但是与其他声学或者语言特征相比,mel铺图失忆症更简单的低级声学表示,改进的wavenet框架可以从mel频谱中生成高质量的音频
    • 频谱图预测网络

      1. 模仿tacotron1,使用50ms帧12.5ms帧跳和Hann窗函数的傅立叶变换;使用5ms帧跳进行试验,以匹配原始wavenet中的条件输入的频率,时间分辨率的提高导致了发音问题增多

      2. 使用125HZ to 7.6kHz 80通道的mel滤波器组将STFT幅度转化为mel标度,之后进行对数动态范围压缩(取log)

      3. 网络结构

        • 编码器 --将字符序列转换为隐藏的特征表示形式
        • 解码器 --解析隐藏特征表示形式以预测频谱图
      4. WaveNet Vocoder

    预测网络详细介绍

    • 编码器

      1. 输入字符:学习的512维字符嵌入表示,字符序列经过3层每层512个5*1的过滤器的卷积层,即每个过滤器跨越5个字符,之后批归一化(batch )和RELU激活函数;卷积层对上下文进行建模,最终输出传递到包含512个单位的单个双向LSTM层(前后两个方向各256个)
      2. 编码器的输出被注意力网络解析,解码器将完整的编码序列总结为固定长度的上下文向量;使用位置敏感注意力机制,将来自先前解码器一定时间步长的累积注意力权重作为附加特征,这有助于模型顺着输入不停向前进行预测,减少了子序列被解码器重复或者忽略的故障模式
      3. 输入和位置特征被投影到128维的隐藏表示形式后可计算出注意力概率;而位置特征是通过32个一维长为31的卷积滤波计算的
    • 解码器

      1. 解码器由一个自回归RNN,将来自编码器的输入序列每次一帧地预测一幅mel频谱图;来自上一步的预测首先通过一个包含256个隐藏relu单元的2层全连接层的小型预网(pre-net),预网的输出和注意力内容向量被连接并且投入2个具有1024单位的单向LSTM层

      2. 单向LSTM层的输出和注意力内容向量被连接之后通过线性变换进行投影,来以此预测目标频谱图帧

      3. 最后,预测的mel频谱图通过5层卷积的post-net(后网),该网络预测了要加到预测中的残差以提高整体性能,后网由512个5×1的过滤器组成,并且进行批归一化,之后在除了最后一层以外的所有层上tanh激活函数

      tc2模型结构

    • 损失函数

      最小化经过后网之前和之后的MSE之和来帮助收敛

    • 与预测频谱图并行的是将LSTM输出和注意上下文被投影到一个标量,并通过S型激活来预测输出序列完成的可能性,允许模型动态却仍何时终止生成,具体我恶言,生成将在此概率值>0.5的第一帧处完成

    • 编码器:网络中的卷积层使用概率为0.5的dropout,LSTM层使用概率为0.1的zoneout;解码器:为引入推断时的输出变化,概率为0.5的丢失仅用于自回归解码器的prenet层中

      Tacotron1Tacotron2
      使用CBHG和GRU(LSTM变体)模块使用原始的LSTM和卷积层
      结构较为复杂架结构更加简单
      使用griffin lim,减少因子不使用减少因子,每个解码器步骤对应于单个频谱图

    wavenet声码器

    • tacotron2的声码器部分使用的是优化后的wavenet,将mel频谱图转换为时域的波形样本,与原始体系一样,具有30个膨胀卷积层,被分为了三个膨胀周期,第k层的膨胀率为 2 k 2^k 2k ;为适应mel频谱12.5ms的帧跳,调节堆栈中的的上采样层只有两层而不是三层
    • 使用logistic分布的10分量混合生成24khz的16位样本,为计算逻辑混合分布,wavenet输出通过relu激活,之后进行线性投影,以预测每个分量组的各个参数(包括平均值、对数刻度、混合物权重)
    • 损失选择为对于ground truth样本的负对数似然率

    实验与结果

    • 预测网络训练–teacher-forcing模式,解码器输入正确的输出而非预测的输出,可以确保预测帧与目标波形样本的对齐

      • 单个gpu上batch size 64
      • Adam优化器 ϵ = 1 0 − 6 epsilon = 10^{-6} ϵ=106
      • 学习率0.001 50000次迭代后降至0.00001
      • L2正则化 权重 1 0 − 6 10^{-6} 106
    • 声码器训练

      • 基于ground truth 批大小128 32GPUS 同步更新
      • Adam优化器 ϵ = 1 0 − 8 epsilon = 10^{-8} ϵ=108
      • 固定学习率 1 0 − 4 10^{-4} 104
      • 波形目标缩放127.5倍以加速收敛
    • 数据集

    • 一名专业女发言人24.6小时的演讲时间,所有文本均已阐明

    • 结果

    MOS评测结果

    • 局限–尽管我们的系统能够可靠地处理整个输入,但韵律模型仍有改进的空间
    • 局限–时会遇到发音困难,例如在处理名称时。这一结果表明了端到端方法的挑战-他们需要对涵盖预期用途的数据进行培训
    • 优点–神经系统倾向于生成更自然,更像人类的语音

    更多角度评价

    对比在预测值和ground truth上声码器的表现对比

    在这里插入图片描述

    对比使用线性频谱和mel频谱作为声码器输入

    在这里插入图片描述

    对比简化wavenet

    在这里插入图片描述

    总结

    本文介绍了Tacotron 2,这是一种全神经TTS系统,该系统结合了序列到序列的递归网络,并通过改进的WaveNet声码器来关注预测梅尔谱图。 最终的系统将语音合成为Tacotron级韵律和WaveNet级音频质量。 该系统可以直接从数据中进行训练,而无需依赖复杂的特征工程,并且可以实现接近自然人语音的最新音质。

  • 相关阅读:
    HTML学习笔记-框架(40)
    HTML学习笔记-使用div和table进行布局(36)
    MVC初体验-EF系列(总结)(23)
    MVC初体验-EF系列(延迟加载)(22)
    MVC初体验-EF系列(状态跟踪的修改)(21)
    MVC初体验-EF系列(CRUD)(20)
    回收站清空后立马恢复
    软件体验记录
    复杂网络,抽象语法树
    PHP修改记录
  • 原文地址:https://www.cnblogs.com/koukouStar/p/14534989.html
Copyright © 2011-2022 走看看